Արհեստական ​​ինտելեկտի էթիկան քննարկում է Քավության հիմնադրամների օրինական պարտադրման արժանիքները՝ ապահովելու համար AI վատ գործելու պատասխանատվությունը

Ո՞վ է մեղավոր։

Դա կարող է թվալ ուղղակի հարց, թեև Էբոթի և Կոստելոյի լեգենդար դուետի հայտնի կատակերգության դեպքում բեյսբոլի թիմի մասին «ով» կարող է շփոթեցնել: Դուք կարող եք անորոշորեն ծանոթ լինել Ով է առաջինը կատակերգական առօրյան, որը նրանք դարձրեցին բոլոր ժամանակների ամենակայուն սքեթներից մեկը (նախազգուշացում նրանց համար, ովքեր չեն լսել դա):

Էբոթն ասում է Կոստելլոյին, որ Ով առաջինն է, Ինչը՝ երկրորդում, Չգիտեմ՝ երրորդում: Խելացի խորամանկությունն այն է, որ առաջին հենակետայինի անունը Ով է, երկրորդ նկուղի անունը Ինչ է, իսկ երրորդ հենակետայինի անունը՝ Ես չգիտեմ: Իհարկե, այդ արտահայտություններն ունեն նաև իրենց պայմանական նշանակությունը, և այդպիսով Էբբոթի ասածը մեկնաբանելու փորձը կարող է ամբողջովին շփոթեցնող լինել: Իսկապես, Կոստելլոն տալիս է անմեղ թվացող հարցը, թե ով է առաջինը, որի պատասխանը հաստատապես ասված է՝ այո: Բայց դա իմաստ չունի Կոստելլոյի համար, քանի որ նա սպասում էր անուն և փոխարենը ստացավ տարակուսելի այո որպես պատասխան:

Շարժույթների փոփոխությունը, երբ խոսքը վերաբերում է Արհեստական ​​ինտելեկտի (AI) հայտնությանը, ամենահուզիչ հարցերից մեկը, որը անընդհատ հարցնում է, ենթադրում է, թե ով կամ գուցե ինչ է պատասխանատվության ենթարկվելու, երբ AI-ն մոլորվի:

Ես նախկինում քննարկել եմ քրեական պատասխանատվությունը այն դեպքում, երբ AI-ն տանում կամ ձեռնարկում է հանցավոր գործողություններ, տես իմ լուսաբանումը այստեղ հղումն այստեղ. Կա նաև քաղաքացիական պատասխանատվության խնդիր, օրինակ, թե ում կամ ինչին կարող եք դատի տալ, երբ AI-ն ձեզ սխալ է արել, ինչի թեման ես կքննարկեմ այստեղ: Այս ամենը ունի AI-ի էթիկայի կարևոր նկատառումներ: AI-ի էթիկայի և էթիկական AI-ի իմ շարունակական և ընդարձակ լուսաբանման համար տե՛ս հղումն այստեղ և հղումն այստեղ, պարզապես մի քանի անուն:

AI-ի էթիկայի կանոնները մեզ ստիպում են զգոն մնալ: AI տեխնոլոգները երբեմն կարող են զբաղված լինել տեխնոլոգիայով, մասնավորապես՝ բարձր տեխնոլոգիաների օպտիմալացումով: Նրանք պարտադիր չէ, որ հաշվի առնեն հասարակության ավելի մեծ ճյուղավորումները: Արհեստական ​​ինտելեկտի էթիկայի մտածելակերպ ունենալը և արհեստական ​​ինտելեկտի զարգացմանն ու ոլորտն ապահովելու համար դա կենսական նշանակություն ունի համապատասխան AI-ի արտադրության համար, ներառյալ (գուցե զարմանալիորեն կամ հեգնանքով) գնահատումը, թե ինչպես է AI էթիկան ընդունվում ընկերությունների կողմից:

Բացի արհեստական ​​ինտելեկտի էթիկայի կանոնների կիրառումից, ընդհանուր առմամբ, կա համապատասխան հարց, թե արդյոք մենք պետք է ունենանք AI-ի տարբեր կիրառություններ կարգավորող օրենքներ: Նոր օրենքներ են մշակվում դաշնային, նահանգային և տեղական մակարդակներում, որոնք վերաբերում են արհեստական ​​ինտելեկտի մշակման տիրույթին և բնույթին: Նման օրենքներ մշակելու և ընդունելու ջանքերը աստիճանաբար են ընթանում: AI-ի էթիկան ծառայում է որպես նվազագույնը հաշվի առնելով, և գրեթե անկասկած որոշ չափով ուղղակիորեն կներառվի այդ նոր օրենքներում:

Տեղյակ եղեք, որ ոմանք համառորեն պնդում են, որ մեզ պետք չեն նոր օրենքներ, որոնք ընդգրկում են արհեստական ​​ինտելեկտը, և որ մեր գործող օրենքները բավարար են: Իրականում, նրանք նախազգուշացնում են, որ եթե մենք հաստատենք AI-ի այս օրենքներից մի քանիսը, մենք կսպանենք ոսկե սագին՝ սահմանափակելով արհեստական ​​ինտելեկտի առաջընթացը, որը հսկայական հասարակական առավելություններ է տալիս:

Բուռն բանավեճ է տեղի ունենում այն ​​մասին, թե արդյոք գոյություն ունեցող օրենքներն ի վիճակի են համարժեք կերպով անդրադառնալ AI համակարգերի առաջացմանը ողջ հասարակության մեջ: Իրավական պատասխանատվությունը սովորաբար պահանջում է, որ դուք կարող եք կապել պոչը էշին, թե ով է պատասխանատու վնասակար վարքի համար: Արհեստական ​​ինտելեկտի դեպքում կարող է լինել բավականին անհասկանալի ճանապարհ, որը կապում է որոշակի անձին կամ անձանց այն AI-ի հետ, որն ինչ-որ վնասաբեր գործողություն է կատարել: Արհեստական ​​ինտելեկտը կարող է մեծ մասամբ անհետանալ աղբյուրի կամ գյուտի համար, որը կազմել է AI-ը:

Մեկ այլ նկատառում այն ​​է, որ նույնիսկ եթե AI-ի արմատները կարելի է գտնել ինչ-որ մեկի մոտ, հարցն այն է, թե արդյոք անձը կամ անձինք կարող էին ողջամտորեն կանխատեսել այն բացասական արդյունքը, որն ի վերջո ստեղծեց AI-ն: Կանխատեսելիության առանցքը սովորաբար նշանակալի գործոն է իրավական պատասխանատվությունը գնահատելու համար:

Դուք կարող եք գայթակղվել մտածելու, որ դուք պարզապես կարող եք հետևել AI-ին և անվանել AI-ն որպես օրինական կողմ, որը պատասխանատու է կամ պատասխանատու ցանկացած վնասի համար, որն իբր կրել է: Մեծ հաշվով, գերակշռող իրավական տեսակետն այն է, որ AI-ն դեռ չի հասել իրավաբանական անձի մակարդակի: Այսպիսով, դուք չեք կարողանա խստորեն ձգտել վճարել AI-ն և ձեզ հարկավոր կլինի գտնել մարդկանց, որոնք աշխատում էին կուլիսների հետևում գործող լծակների վրա (այսպես ասած՝ AI-ի իրավաբանական անձի իմ վերլուծության համար տե՛ս. հղումն այստեղ).

Այս պոտենցիալ իրավական խեղաթյուրման մեջ մտնում է մի գաղափար, որը դրսևորվում է որպես հնարավոր փոխհատուցման միջոց՝ կա՛մ կարճաժամկետ հիմունքներով, կա՛մ հնարավոր է երկարաժամկետ հեռանկարում: Գաղափարն այն է, որ թերևս պետք է ստեղծվի հատուկ փոխհատուցման հիմնադրամ՝ ֆինանսական օգնություն տրամադրելու նրանց, ովքեր տուժել են արհեստական ​​ինտելեկտից: Եթե ​​այլ կերպ չեք կարողանում ստիպել, որ արհեստական ​​ինտելեկտը փոխհատուցի ձեզ, և դուք չեք կարող մատնանշել այն անձանց, որոնք ենթադրաբար պետք է պատասխանատվության ենթարկվեն, հաջորդ լավագույն տարբերակը կարող է լինել փոխհատուցման հիմնադրամից օգտվելը, որը նպատակ ունի օգնել նրանց, ովքեր տուժել են AI-ից:

Նման հիմնադրամը նման կլինի ապահովագրության մի ձևի, ինչպես ասվում է մտորումների տեղիք տվող հետազոտական ​​հոդվածում. «Սա, ըստ էության, կլինի անորոշությունից ապահովագրական մեխանիզմ. հաջողության անորոշ կամ ոչ մի հեռանկար՝ վնասաբեր վարքագծի անկանխատեսելի բնույթի, ինքնին վնասի (տեսակի) կամ ընթացակարգի չափազանց ծախսերի և/կամ բարդության պատճառով» (Օլիվիա Էրդելիի և Գաբոր Էրդելիի հոդվածը, «AI Liability Puzzle»: Եվ ֆոնդի վրա հիմնված աշխատանք», Արհեստական ​​ինտելեկտի հետազոտությունների ամսագիր, 2021):

Փոխհատուցման ֆոնդը կլինի Արհեստական ​​ինտելեկտի երաշխիքների համապարփակ սխեմայի (AIGS) մաս և կուղեկցվի իրավական պատասխանատվության մասին գոյություն ունեցող օրենքների որոշ թեթև փոփոխություններով: Թեթև հպումը ենթադրաբար ավելի հեշտ կլիներ կիրառել և չէր պահանջի ծանր իրավական և հասարակական տագնապը, եթե գոյություն ունեցող իրավական ռեժիմներում ցուցադրական փոփոխությունների ավելի աղետալի շարք կատարվեին: Հետազոտողների կարծիքով. «Սա արտացոլում է մեր համոզմունքը, որ չնայած նման արագ շտկվող լուծման գրավչությանը անփոփոխ AI-ի նկատմամբ պատասխանատվության առկա կանոնների կիրառումը կամ ա պաշտպանական շարժառիթներով Ամեն գնով պատասխանատվություն սահմանելու նպատակով խստագույն պատասխանատվության դիմելը ճիշտ պատասխաններ չեն երեք պատճառով. իրավական պատասխանատվության համակարգ. Երկրորդ, նրանք արգելակում են AI-ի նորարարությունը՝ ընդունելով անհիմն պատժիչ մոտեցում: Երրորդ, խիստ պատասխանատվության անհարկի դիմելը պարզապես շրջանցում է կանխատեսելիությունը և մեղքի խնդիրները դոգմատիկորեն անհամապատասխան ձևով, այլ ոչ թե դրանք շտկելու» (ըստ վերևում նշված հոդվածի):

Արհեստական ​​ինտելեկտի նման փոխհատուցող միջոցների օգտին փաստարկները ներառում են.

  • Նվազեցնում է երկարատև և ծախսատար իրավական փորձարկումների անհրաժեշտությունը՝ AI-ի կողմից հասցված վնասները հաղթահարելու համար
  • Հանգստացնում է մարդկանց, որ նրանք կարող են օգտվել AI-ից և փոխհատուցում ստանալ, եթե վնասվի
  • Խթանում է AI-ի նորարարությունը՝ մեղմելով AI նորարարների առջև ծառացած իրավական անորոշությունը
  • Կարող է օգտագործվել ավելի արագ, քան գոյություն ունեցող օրենքներում զանգվածային փոփոխություններ կատարելը
  • Առաջարկում է համեմատաբար հստակ միջոց, որը հուսալի և մատչելի է
  • այլ

Մինչդեռ նրանք, ովքեր դեմ են AI-ի փոխհատուցման ֆոնդերի մոտեցմանը, ասում են.

  • Եկեք ինտելեկտուալ արհեստական ​​ինտելեկտի ստեղծողներին չափից դուրս հանենք և թույլ տանք, որ նրանք խուսափեն պատասխանատվությունից
  • Կխրախուսի AI ստեղծողներին ստեղծել AI, որը զուրկ է պարտաճանաչ անվտանգությունից և պատշաճ վերահսկողությունից
  • Կարող է դրդել մարդկանց կեղծ պնդումներ անել AI-ի վնասների մասին, որպեսզի նրանք կարողանան օգտվել միջոցներից
  • Շրջանցում և խաթարում է մեր օրենքները վերանայելու իրական անհրաժեշտությունը՝ AI-ը բավարար չափով կառավարելու համար
  • Կարող է դառնալ բյուրոկրատական ​​մղձավանջ, որը ճահճանում և չարաշահում է միջոցները
  • այլ

Ինչպես ակնհայտ է, այս բոլորովին հակասական հասկացության և՛ կողմնակիցներ, և՛ հակառակորդներ կան:

Դուք դժվար կլինի բացառել AI-ի փոխհատուցման հիմնադրամը որպես պոտենցիալ մոտեցում AI-ի վերաբերյալ աճող մտահոգություններին, որը վնաս է պատճառում: Ոչ էլ առաջարկվող լուծումը սլեմ դանկ է:

Տեսակետներից մեկն այն է, որ AI ստեղծողները պետք է գումար ներդնեն ֆոնդերում՝ որպես իրենց ջանքերի մի մաս, երբ ստեղծեն և տարածեն AI: Սա կարող է մեկնաբանվել որպես մի տեսակ վճար կամ հարկ, որը նրանք պետք է կրեն որպես իրենց AI-ն աշխարհին ազատելու հնարավորության մաս: Բայց արդյո՞ք այս հավելյալ արժեքը պոտենցիալ կերպով ճնշում է ստարտափների ջանքերը, որոնք փորձում են առաջ տանել այսօրվա AI-ի սահմանները: Եվ ինչպե՞ս պետք է կարգավորվի ինտելեկտի ստեղծողները վճարել իրենց վճարը կամ հարկը համոզվելու համար:

Առաջանում են մի շարք հարցեր, որոնք պետք է լուծվեն.

  • Ո՞ր երկրներում կլինի արհեստական ​​ինտելեկտի փոխհատուցման ֆոնդը լավագույնս իրագործելի:
  • Կարո՞ղ է ստեղծվել փոխկապակցված AI-ի փոխհատուցման միջոցների գլոբալ տեսք:
  • Որո՞նք են լինելու նման հիմնադրամների հետ կապված մանրամասն և գործունակ մեխանիզմները:
  • Ինչպե՞ս են ֆինանսավորվելու արհեստական ​​ինտելեկտի փոխհատուցման միջոցները (պետական, մասնավոր, բարեգործական):
  • Արդյո՞ք սա կլինի առանց մեղքի ապահովագրության հիմք, թե՞ այլ մոտեցում կկիրառվի:
  • Etc.

Արհեստական ​​ինտելեկտի փոխհատուցման ֆոնդի գաղափարի շուրջ արդեն իսկ տարածված ոլորտը բաղկացած է ինքնավար համակարգերից, ինչպիսիք են ինքնավար մեքենաները և ինքնակառավարվող մեքենաները: Ինքնավար մեքենաների և AI ինքնավար համակարգերի իմ լուսաբանման համար տե՛ս հղումն այստեղ.

Ահա մի ուրվագիծ, թե ինչպես դա կարող է աշխատել AI-ի վրա հիմնված ինքնակառավարվող մեքենաների համար:

Ենթադրենք, որ ինքնակառավարվող մեքենան բախվում է հեծանվորդի հետ: Հեծանվորդը տուժել է. Հեծանվորդը կարող է իրավական փոխհատուցում փնտրել՝ հետապնդելով ինքնավար մեքենայի ավտոարտադրողին: Կամ նրանք կարող են ուղղված լինել ինքնակառավարվող տեխնոլոգիական ընկերությանը, որը ստեղծել է AI վարորդական համակարգը: Եթե ​​ինքնակառավարվող մեքենան շահագործվում է որպես պարկ, ապա մեկ այլ օրինական ճանապարհ կլինի պարկի շահագործողին հետապնդելը: AI-ի դեմ դատի տալը այս պահին տարբերակ չէ, քանի որ AI-ի իրավաբանական անձը դեռևս հաստատված չէ:

Այդ կողմերից որևէ մեկի դեմ դատական ​​գործողություններ ձեռնարկելու փոխարեն, մեկ այլ միջոց կլինի դիմում ներկայացնելը կամ պահանջ ներկայացնել համապատասխան արհեստական ​​ինտելեկտի փոխհատուցման հիմնադրամին: Հիմնադրամը պետք է պաշտոնականացներ պահանջի վերանայման գործընթացները, և այնուհետև որոշեր, թե ինչ, եթե որևէ հատուցում վճարումներ տրամադրվեն հայցատուին: Կարող է լինել բողոքարկման գործընթաց, որն օգնում է հայցվորներին, ովքեր կարծում են, որ իրենք կամ սխալ կերպով մերժվել են հիմնադրամի կողմից, կամ անբավարար փոխհատուցում են ստացել հիմնադրամի կողմից:

Տեսականորեն, արհեստական ​​ինտելեկտի փոխհատուցման ֆոնդը շատ ավելի արագ ճանապարհ կլիներ հասցված վնասի համար փոխհատուցում ստանալու համար: Կարող եք պատկերացնել, թե որքան աշխատատար կարող է լինել դատական ​​հայցը, որով դատի տվող ընկերությունները կարող են փորձել ձգձգել գործը:

Փաստաբանները, սակայն, կարող են ընդգծել, որ AI փոխհատուցման հիմնադրամը կարող է թույլ տալ մյուս կողմերին, ինչպիսիք են AI ստեղծողները, կարծես թե խուսափել որևէ հստակ տույժից՝ իրենց ինքնակառավարվող մեքենան հանրային ճանապարհների վրա բաց թողնելու համար, որը ի վերջո հարվածել է հեծանվորդին: Էլ ի՞նչ կարող են այդ ընկերությունները նախընտրել «անզգույշ» անել: Առանց նրանց գլխին կախված օրինական թրի ուրվականի, մենք կարող էինք ամեն օր առերեսվել AI-ի հետ, որը լի է վտանգող կարողություններով:

Կլոր-շրջում են փաստարկները:

Եզրափակում

AI էթիկան հիշեցնում է մեզ, որ մենք միշտ պետք է հաշվի առնենք AI-ի էթիկական և իրավական հետևանքները: Արհեստական ​​ինտելեկտի փոխհատուցման ֆոնդերի այս դեպքում, Արհեստական ​​ինտելեկտի կողմից վնասվածներին վնասվածներին փոխհատուցելու համար ապահովագրական նման ֆոնդի առաջարկվող գաղափարը գրավիչ է թվում: Դրամական միջոցները, ըստ երևույթին, սպասում էին այնտեղ, պատրաստ էին օգտագործելու և հնարավորինս շուտ փոխհատուցում տրամադրելու համար:

Փոխզիջումներն այն մասին, թե արդյոք սա կարող է բացել ճանապարհը դեպի AI-ն, որն ունի ավելի ու ավելի քիչ անվտանգության հսկողություն, սարսափելի և չափազանց իրական մտահոգություն է: Հավանաբար, մեզ պետք չէ յուղ լցնել կրակի վրա, որը, թերևս, արդեն որոշակիորեն սկսվել է:

Կարո՞ղ ենք արդյոք դեռևս ինչ-որ կերպ պահել AI ստեղծողներին, որպեսզի մշակեն համապատասխան էթիկական AI և միևնույն ժամանակ հիմնեն այս AI-ի փոխհատուցման ֆոնդերը:

Ոմանք կասեին, որ այո, մենք կարող ենք։ Արհեստական ​​ինտելեկտի փոխհատուցման ֆոնդերին համապատասխանեցնելու համար գոյություն ունեցող օրենքները վերամշակելով՝ նրանք, ովքեր վնասվում են արհեստական ​​ինտելեկտի կողմից, պոտենցիալ կունենան երկակի ճանապարհ՝ իրենց արդար փոխհատուցում ստանալու համար:

Ո՞վ է առաջինը:

Այո, հենց դա է (ինչպես բոլորս) առաջին անգամ նկատում, որ մենք պետք է մտածենք արհեստական ​​ինտելեկտի փոխհատուցման միջոցների հնարավոր օգտագործման մասին և փոփոխենք գոյություն ունեցող օրենքները, թեկուզ թեթև, միջոցներ տրամադրելով ինչպես լավ արհեստական ​​ինտելեկտի, այնպես էլ լավ արհեստական ​​ինտելեկտի հարձակումներին դիմակայելու համար: վատ AI.

Ոչ մի շփոթություն չկա այդ կենսական նկատառման վերաբերյալ:

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- պատասխանատվություն/