Ո՞վ է մեղավոր։
Դա կարող է թվալ ուղղակի հարց, թեև Էբոթի և Կոստելոյի լեգենդար դուետի հայտնի կատակերգության դեպքում բեյսբոլի թիմի մասին «ով» կարող է շփոթեցնել: Դուք կարող եք անորոշորեն ծանոթ լինել Ով է առաջինը կատակերգական առօրյան, որը նրանք դարձրեցին բոլոր ժամանակների ամենակայուն սքեթներից մեկը (նախազգուշացում նրանց համար, ովքեր չեն լսել դա):
Էբոթն ասում է Կոստելլոյին, որ Ով առաջինն է, Ինչը՝ երկրորդում, Չգիտեմ՝ երրորդում: Խելացի խորամանկությունն այն է, որ առաջին հենակետայինի անունը Ով է, երկրորդ նկուղի անունը Ինչ է, իսկ երրորդ հենակետայինի անունը՝ Ես չգիտեմ: Իհարկե, այդ արտահայտություններն ունեն նաև իրենց պայմանական նշանակությունը, և այդպիսով Էբբոթի ասածը մեկնաբանելու փորձը կարող է ամբողջովին շփոթեցնող լինել: Իսկապես, Կոստելլոն տալիս է անմեղ թվացող հարցը, թե ով է առաջինը, որի պատասխանը հաստատապես ասված է՝ այո: Բայց դա իմաստ չունի Կոստելլոյի համար, քանի որ նա սպասում էր անուն և փոխարենը ստացավ տարակուսելի այո որպես պատասխան:
Շարժույթների փոփոխությունը, երբ խոսքը վերաբերում է Արհեստական ինտելեկտի (AI) հայտնությանը, ամենահուզիչ հարցերից մեկը, որը անընդհատ հարցնում է, ենթադրում է, թե ով կամ գուցե ինչ է պատասխանատվության ենթարկվելու, երբ AI-ն մոլորվի:
Ես նախկինում քննարկել եմ քրեական պատասխանատվությունը այն դեպքում, երբ AI-ն տանում կամ ձեռնարկում է հանցավոր գործողություններ, տես իմ լուսաբանումը այստեղ հղումն այստեղ. Կա նաև քաղաքացիական պատասխանատվության խնդիր, օրինակ, թե ում կամ ինչին կարող եք դատի տալ, երբ AI-ն ձեզ սխալ է արել, ինչի թեման ես կքննարկեմ այստեղ: Այս ամենը ունի AI-ի էթիկայի կարևոր նկատառումներ: AI-ի էթիկայի և էթիկական AI-ի իմ շարունակական և ընդարձակ լուսաբանման համար տե՛ս հղումն այստեղ և հղումն այստեղ, պարզապես մի քանի անուն:
AI-ի էթիկայի կանոնները մեզ ստիպում են զգոն մնալ: AI տեխնոլոգները երբեմն կարող են զբաղված լինել տեխնոլոգիայով, մասնավորապես՝ բարձր տեխնոլոգիաների օպտիմալացումով: Նրանք պարտադիր չէ, որ հաշվի առնեն հասարակության ավելի մեծ ճյուղավորումները: Արհեստական ինտելեկտի էթիկայի մտածելակերպ ունենալը և արհեստական ինտելեկտի զարգացմանն ու ոլորտն ապահովելու համար դա կենսական նշանակություն ունի համապատասխան AI-ի արտադրության համար, ներառյալ (գուցե զարմանալիորեն կամ հեգնանքով) գնահատումը, թե ինչպես է AI էթիկան ընդունվում ընկերությունների կողմից:
Բացի արհեստական ինտելեկտի էթիկայի կանոնների կիրառումից, ընդհանուր առմամբ, կա համապատասխան հարց, թե արդյոք մենք պետք է ունենանք AI-ի տարբեր կիրառություններ կարգավորող օրենքներ: Նոր օրենքներ են մշակվում դաշնային, նահանգային և տեղական մակարդակներում, որոնք վերաբերում են արհեստական ինտելեկտի մշակման տիրույթին և բնույթին: Նման օրենքներ մշակելու և ընդունելու ջանքերը աստիճանաբար են ընթանում: AI-ի էթիկան ծառայում է որպես նվազագույնը հաշվի առնելով, և գրեթե անկասկած որոշ չափով ուղղակիորեն կներառվի այդ նոր օրենքներում:
Տեղյակ եղեք, որ ոմանք համառորեն պնդում են, որ մեզ պետք չեն նոր օրենքներ, որոնք ընդգրկում են արհեստական ինտելեկտը, և որ մեր գործող օրենքները բավարար են: Իրականում, նրանք նախազգուշացնում են, որ եթե մենք հաստատենք AI-ի այս օրենքներից մի քանիսը, մենք կսպանենք ոսկե սագին՝ սահմանափակելով արհեստական ինտելեկտի առաջընթացը, որը հսկայական հասարակական առավելություններ է տալիս:
Բուռն բանավեճ է տեղի ունենում այն մասին, թե արդյոք գոյություն ունեցող օրենքներն ի վիճակի են համարժեք կերպով անդրադառնալ AI համակարգերի առաջացմանը ողջ հասարակության մեջ: Իրավական պատասխանատվությունը սովորաբար պահանջում է, որ դուք կարող եք կապել պոչը էշին, թե ով է պատասխանատու վնասակար վարքի համար: Արհեստական ինտելեկտի դեպքում կարող է լինել բավականին անհասկանալի ճանապարհ, որը կապում է որոշակի անձին կամ անձանց այն AI-ի հետ, որն ինչ-որ վնասաբեր գործողություն է կատարել: Արհեստական ինտելեկտը կարող է մեծ մասամբ անհետանալ աղբյուրի կամ գյուտի համար, որը կազմել է AI-ը:
Մեկ այլ նկատառում այն է, որ նույնիսկ եթե AI-ի արմատները կարելի է գտնել ինչ-որ մեկի մոտ, հարցն այն է, թե արդյոք անձը կամ անձինք կարող էին ողջամտորեն կանխատեսել այն բացասական արդյունքը, որն ի վերջո ստեղծեց AI-ն: Կանխատեսելիության առանցքը սովորաբար նշանակալի գործոն է իրավական պատասխանատվությունը գնահատելու համար:
Դուք կարող եք գայթակղվել մտածելու, որ դուք պարզապես կարող եք հետևել AI-ին և անվանել AI-ն որպես օրինական կողմ, որը պատասխանատու է կամ պատասխանատու ցանկացած վնասի համար, որն իբր կրել է: Մեծ հաշվով, գերակշռող իրավական տեսակետն այն է, որ AI-ն դեռ չի հասել իրավաբանական անձի մակարդակի: Այսպիսով, դուք չեք կարողանա խստորեն ձգտել վճարել AI-ն և ձեզ հարկավոր կլինի գտնել մարդկանց, որոնք աշխատում էին կուլիսների հետևում գործող լծակների վրա (այսպես ասած՝ AI-ի իրավաբանական անձի իմ վերլուծության համար տե՛ս. հղումն այստեղ).
Այս պոտենցիալ իրավական խեղաթյուրման մեջ մտնում է մի գաղափար, որը դրսևորվում է որպես հնարավոր փոխհատուցման միջոց՝ կա՛մ կարճաժամկետ հիմունքներով, կա՛մ հնարավոր է երկարաժամկետ հեռանկարում: Գաղափարն այն է, որ թերևս պետք է ստեղծվի հատուկ փոխհատուցման հիմնադրամ՝ ֆինանսական օգնություն տրամադրելու նրանց, ովքեր տուժել են արհեստական ինտելեկտից: Եթե այլ կերպ չեք կարողանում ստիպել, որ արհեստական ինտելեկտը փոխհատուցի ձեզ, և դուք չեք կարող մատնանշել այն անձանց, որոնք ենթադրաբար պետք է պատասխանատվության ենթարկվեն, հաջորդ լավագույն տարբերակը կարող է լինել փոխհատուցման հիմնադրամից օգտվելը, որը նպատակ ունի օգնել նրանց, ովքեր տուժել են AI-ից:
Նման հիմնադրամը նման կլինի ապահովագրության մի ձևի, ինչպես ասվում է մտորումների տեղիք տվող հետազոտական հոդվածում. «Սա, ըստ էության, կլինի անորոշությունից ապահովագրական մեխանիզմ. հաջողության անորոշ կամ ոչ մի հեռանկար՝ վնասաբեր վարքագծի անկանխատեսելի բնույթի, ինքնին վնասի (տեսակի) կամ ընթացակարգի չափազանց ծախսերի և/կամ բարդության պատճառով» (Օլիվիա Էրդելիի և Գաբոր Էրդելիի հոդվածը, «AI Liability Puzzle»: Եվ ֆոնդի վրա հիմնված աշխատանք», Արհեստական ինտելեկտի հետազոտությունների ամսագիր, 2021):
Փոխհատուցման ֆոնդը կլինի Արհեստական ինտելեկտի երաշխիքների համապարփակ սխեմայի (AIGS) մաս և կուղեկցվի իրավական պատասխանատվության մասին գոյություն ունեցող օրենքների որոշ թեթև փոփոխություններով: Թեթև հպումը ենթադրաբար ավելի հեշտ կլիներ կիրառել և չէր պահանջի ծանր իրավական և հասարակական տագնապը, եթե գոյություն ունեցող իրավական ռեժիմներում ցուցադրական փոփոխությունների ավելի աղետալի շարք կատարվեին: Հետազոտողների կարծիքով. «Սա արտացոլում է մեր համոզմունքը, որ չնայած նման արագ շտկվող լուծման գրավչությանը անփոփոխ AI-ի նկատմամբ պատասխանատվության առկա կանոնների կիրառումը կամ ա պաշտպանական շարժառիթներով Ամեն գնով պատասխանատվություն սահմանելու նպատակով խստագույն պատասխանատվության դիմելը ճիշտ պատասխաններ չեն երեք պատճառով. իրավական պատասխանատվության համակարգ. Երկրորդ, նրանք արգելակում են AI-ի նորարարությունը՝ ընդունելով անհիմն պատժիչ մոտեցում: Երրորդ, խիստ պատասխանատվության անհարկի դիմելը պարզապես շրջանցում է կանխատեսելիությունը և մեղքի խնդիրները դոգմատիկորեն անհամապատասխան ձևով, այլ ոչ թե դրանք շտկելու» (ըստ վերևում նշված հոդվածի):
Արհեստական ինտելեկտի նման փոխհատուցող միջոցների օգտին փաստարկները ներառում են.
- Նվազեցնում է երկարատև և ծախսատար իրավական փորձարկումների անհրաժեշտությունը՝ AI-ի կողմից հասցված վնասները հաղթահարելու համար
- Հանգստացնում է մարդկանց, որ նրանք կարող են օգտվել AI-ից և փոխհատուցում ստանալ, եթե վնասվի
- Խթանում է AI-ի նորարարությունը՝ մեղմելով AI նորարարների առջև ծառացած իրավական անորոշությունը
- Կարող է օգտագործվել ավելի արագ, քան գոյություն ունեցող օրենքներում զանգվածային փոփոխություններ կատարելը
- Առաջարկում է համեմատաբար հստակ միջոց, որը հուսալի և մատչելի է
- այլ
Մինչդեռ նրանք, ովքեր դեմ են AI-ի փոխհատուցման ֆոնդերի մոտեցմանը, ասում են.
- Եկեք ինտելեկտուալ արհեստական ինտելեկտի ստեղծողներին չափից դուրս հանենք և թույլ տանք, որ նրանք խուսափեն պատասխանատվությունից
- Կխրախուսի AI ստեղծողներին ստեղծել AI, որը զուրկ է պարտաճանաչ անվտանգությունից և պատշաճ վերահսկողությունից
- Կարող է դրդել մարդկանց կեղծ պնդումներ անել AI-ի վնասների մասին, որպեսզի նրանք կարողանան օգտվել միջոցներից
- Շրջանցում և խաթարում է մեր օրենքները վերանայելու իրական անհրաժեշտությունը՝ AI-ը բավարար չափով կառավարելու համար
- Կարող է դառնալ բյուրոկրատական մղձավանջ, որը ճահճանում և չարաշահում է միջոցները
- այլ
Ինչպես ակնհայտ է, այս բոլորովին հակասական հասկացության և՛ կողմնակիցներ, և՛ հակառակորդներ կան:
Դուք դժվար կլինի բացառել AI-ի փոխհատուցման հիմնադրամը որպես պոտենցիալ մոտեցում AI-ի վերաբերյալ աճող մտահոգություններին, որը վնաս է պատճառում: Ոչ էլ առաջարկվող լուծումը սլեմ դանկ է:
Տեսակետներից մեկն այն է, որ AI ստեղծողները պետք է գումար ներդնեն ֆոնդերում՝ որպես իրենց ջանքերի մի մաս, երբ ստեղծեն և տարածեն AI: Սա կարող է մեկնաբանվել որպես մի տեսակ վճար կամ հարկ, որը նրանք պետք է կրեն որպես իրենց AI-ն աշխարհին ազատելու հնարավորության մաս: Բայց արդյո՞ք այս հավելյալ արժեքը պոտենցիալ կերպով ճնշում է ստարտափների ջանքերը, որոնք փորձում են առաջ տանել այսօրվա AI-ի սահմանները: Եվ ինչպե՞ս պետք է կարգավորվի ինտելեկտի ստեղծողները վճարել իրենց վճարը կամ հարկը համոզվելու համար:
Առաջանում են մի շարք հարցեր, որոնք պետք է լուծվեն.
- Ո՞ր երկրներում կլինի արհեստական ինտելեկտի փոխհատուցման ֆոնդը լավագույնս իրագործելի:
- Կարո՞ղ է ստեղծվել փոխկապակցված AI-ի փոխհատուցման միջոցների գլոբալ տեսք:
- Որո՞նք են լինելու նման հիմնադրամների հետ կապված մանրամասն և գործունակ մեխանիզմները:
- Ինչպե՞ս են ֆինանսավորվելու արհեստական ինտելեկտի փոխհատուցման միջոցները (պետական, մասնավոր, բարեգործական):
- Արդյո՞ք սա կլինի առանց մեղքի ապահովագրության հիմք, թե՞ այլ մոտեցում կկիրառվի:
- Etc.
Արհեստական ինտելեկտի փոխհատուցման ֆոնդի գաղափարի շուրջ արդեն իսկ տարածված ոլորտը բաղկացած է ինքնավար համակարգերից, ինչպիսիք են ինքնավար մեքենաները և ինքնակառավարվող մեքենաները: Ինքնավար մեքենաների և AI ինքնավար համակարգերի իմ լուսաբանման համար տե՛ս հղումն այստեղ.
Ահա մի ուրվագիծ, թե ինչպես դա կարող է աշխատել AI-ի վրա հիմնված ինքնակառավարվող մեքենաների համար:
Ենթադրենք, որ ինքնակառավարվող մեքենան բախվում է հեծանվորդի հետ: Հեծանվորդը տուժել է. Հեծանվորդը կարող է իրավական փոխհատուցում փնտրել՝ հետապնդելով ինքնավար մեքենայի ավտոարտադրողին: Կամ նրանք կարող են ուղղված լինել ինքնակառավարվող տեխնոլոգիական ընկերությանը, որը ստեղծել է AI վարորդական համակարգը: Եթե ինքնակառավարվող մեքենան շահագործվում է որպես պարկ, ապա մեկ այլ օրինական ճանապարհ կլինի պարկի շահագործողին հետապնդելը: AI-ի դեմ դատի տալը այս պահին տարբերակ չէ, քանի որ AI-ի իրավաբանական անձը դեռևս հաստատված չէ:
Այդ կողմերից որևէ մեկի դեմ դատական գործողություններ ձեռնարկելու փոխարեն, մեկ այլ միջոց կլինի դիմում ներկայացնելը կամ պահանջ ներկայացնել համապատասխան արհեստական ինտելեկտի փոխհատուցման հիմնադրամին: Հիմնադրամը պետք է պաշտոնականացներ պահանջի վերանայման գործընթացները, և այնուհետև որոշեր, թե ինչ, եթե որևէ հատուցում վճարումներ տրամադրվեն հայցատուին: Կարող է լինել բողոքարկման գործընթաց, որն օգնում է հայցվորներին, ովքեր կարծում են, որ իրենք կամ սխալ կերպով մերժվել են հիմնադրամի կողմից, կամ անբավարար փոխհատուցում են ստացել հիմնադրամի կողմից:
Տեսականորեն, արհեստական ինտելեկտի փոխհատուցման ֆոնդը շատ ավելի արագ ճանապարհ կլիներ հասցված վնասի համար փոխհատուցում ստանալու համար: Կարող եք պատկերացնել, թե որքան աշխատատար կարող է լինել դատական հայցը, որով դատի տվող ընկերությունները կարող են փորձել ձգձգել գործը:
Փաստաբանները, սակայն, կարող են ընդգծել, որ AI փոխհատուցման հիմնադրամը կարող է թույլ տալ մյուս կողմերին, ինչպիսիք են AI ստեղծողները, կարծես թե խուսափել որևէ հստակ տույժից՝ իրենց ինքնակառավարվող մեքենան հանրային ճանապարհների վրա բաց թողնելու համար, որը ի վերջո հարվածել է հեծանվորդին: Էլ ի՞նչ կարող են այդ ընկերությունները նախընտրել «անզգույշ» անել: Առանց նրանց գլխին կախված օրինական թրի ուրվականի, մենք կարող էինք ամեն օր առերեսվել AI-ի հետ, որը լի է վտանգող կարողություններով:
Կլոր-շրջում են փաստարկները:
Եզրափակում
AI էթիկան հիշեցնում է մեզ, որ մենք միշտ պետք է հաշվի առնենք AI-ի էթիկական և իրավական հետևանքները: Արհեստական ինտելեկտի փոխհատուցման ֆոնդերի այս դեպքում, Արհեստական ինտելեկտի կողմից վնասվածներին վնասվածներին փոխհատուցելու համար ապահովագրական նման ֆոնդի առաջարկվող գաղափարը գրավիչ է թվում: Դրամական միջոցները, ըստ երևույթին, սպասում էին այնտեղ, պատրաստ էին օգտագործելու և հնարավորինս շուտ փոխհատուցում տրամադրելու համար:
Փոխզիջումներն այն մասին, թե արդյոք սա կարող է բացել ճանապարհը դեպի AI-ն, որն ունի ավելի ու ավելի քիչ անվտանգության հսկողություն, սարսափելի և չափազանց իրական մտահոգություն է: Հավանաբար, մեզ պետք չէ յուղ լցնել կրակի վրա, որը, թերևս, արդեն որոշակիորեն սկսվել է:
Կարո՞ղ ենք արդյոք դեռևս ինչ-որ կերպ պահել AI ստեղծողներին, որպեսզի մշակեն համապատասխան էթիկական AI և միևնույն ժամանակ հիմնեն այս AI-ի փոխհատուցման ֆոնդերը:
Ոմանք կասեին, որ այո, մենք կարող ենք։ Արհեստական ինտելեկտի փոխհատուցման ֆոնդերին համապատասխանեցնելու համար գոյություն ունեցող օրենքները վերամշակելով՝ նրանք, ովքեր վնասվում են արհեստական ինտելեկտի կողմից, պոտենցիալ կունենան երկակի ճանապարհ՝ իրենց արդար փոխհատուցում ստանալու համար:
Ո՞վ է առաջինը:
Այո, հենց դա է (ինչպես բոլորս) առաջին անգամ նկատում, որ մենք պետք է մտածենք արհեստական ինտելեկտի փոխհատուցման միջոցների հնարավոր օգտագործման մասին և փոփոխենք գոյություն ունեցող օրենքները, թեկուզ թեթև, միջոցներ տրամադրելով ինչպես լավ արհեստական ինտելեկտի, այնպես էլ լավ արհեստական ինտելեկտի հարձակումներին դիմակայելու համար: վատ AI.
Ոչ մի շփոթություն չկա այդ կենսական նկատառման վերաբերյալ:
Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- պատասխանատվություն/