Արհեստական ​​ինտելեկտի էթիկան և օրինական արհեստական ​​ինտելեկտը խեղաթյուրված են խաբուսիկ հավակնություններով, որոնք հայտնի են որպես AI Ethics-Washing, որոնք կեղծ պնդումներ են հավատարիմ մնալու էթիկական AI-ին, ներառյալ ինքնավար ինքնակառավարվող մեքենաների համար:

Եկեք ուսումնասիրենք բազմաթիվ եղանակներ, որոնցով «լվանում» և «լվացում» բառերը կարող են ձգվել և օգտագործվել տարբեր իմաստության մարգարիտների հաղորդակցման համար:

Օրինակ, մենք գիտենք, որ մարդիկ երբեմն նախազգուշացնում են, որ դուք չպետք է լվացեք ձեր կեղտոտ լվացքը հանրության առաջ: Ես հիշում եմ, որ երեխա ժամանակ մեծահասակները հաճախ զգուշացնում էին, որ ոչ պատշաճ կերպով արտահայտված արտահայտությունը կարող է հանգեցնել ձեր բերանը օճառով լվանալու: Մեկ այլ հաճախ հիշատակվող արտահայտություն այն էր, որ ամեն ինչ, կարծես, ի վերջո դուրս է գալիս լվացքի ժամանակ:

Եթե ​​ձեզ անհանգստացնում էր մի բան, որի հետ չէիք ցանկանում առնչվել, ապա առաջարկվող գաղափարն այն էր, թե արդյոք կարող եք լվանալ ձեր ձեռքերը դրանից: Լվացքի հետ կապված բոլոր տեսակի նկատառումները սովորաբար շրջվում են, ներառյալ այն, որ դուք կարող եք համառոտ լվանալ կամ լվացվել: Ձուն դեմքիցդ լվանալը հին ասացվածք է, որը, թվում է, դեռ երբեմն հայտնվում է զրույցներում:

Լվացքի տատանումները ներկայացնելու համար գույների օգտագործումը նույնպես համեմատաբար հայտնի է: Ասում են, որ սպիտակեցման գաղափարը գալիս է առնվազն 1500-ականներից: Մտահոգություններ կան կարմիր լվացման, մանուշակագույն լվացման և այլնի վերաբերյալ։ Ես կհամարձակվեմ ասել, որ թերևս կանաչ լվացումը մեր օրերում առավել հաճախ օգտագործվող արտահայտություններից մեկն է, որը վերաբերում է իբրև թե դատարկության ակտին, երբ պաշտպանում է կայունությունը և, այնուամենայնիվ, չհաստատելով պնդված խոսակցությունը քայլելու հիմքի որևէ նյութով:

Հնարավոր է, որ դուք չգիտեք լվացման նորագույն տարբերակներից մեկի մասին, այն է՝ AI Ethics լվացքի մասին:

Ոմանք նախընտրում են բառակապակցությունը կրճատել «Էթիկայի լվացում», թեև դա կարող է որոշակի շփոթություն առաջացնել, քանի որ այս այլընտրանքային թվացող ձևակերպումը կարող է վերաբերել էթիկայի վրա հիմնված լվացման գրեթե ցանկացած տեսակի: Էթիկայի լվացման հատուկ ձևը, որը ես կքննարկեմ այստեղ, բաղկացած է արհեստական ​​ինտելեկտի վրա կենտրոնացած էթիկայից և դրա հետ կապված բոլոր էթիկական նկատառումներից: Հստակության համար ես կցանկանայի առաջարկել, որ Ethics Washing-ն ընդգրկում է էթիկայի լվացման լայն տեսականի, որոնք կարող են քիչ կամ ընդհանրապես կապ չունենալ AI-ի հետ: Եվ որ AI-ի էթիկայի լվացումը էթիկայի լվացման հատուկ տեսակ է, որն ուղղված է հատկապես AI-ի ոլորտին:

Ձեզ կարող է հետաքրքրել, թե կոնկրետ ինչից է բաղկացած AI Ethics լվացումը:

Իմ ընդհանուր սահմանումն այն է, որ AI Ethics լվացումը կարող է սահմանվել հետևյալ կերպ.

  • AI Ethics-ի լվացումը ենթադրում է շուրթերի խնամք կամ պատուհան հագցնել AI-ի էթիկայի սկզբունքների վերաբերյալ ենթադրյալ հոգատար մտահոգություններին, ներառյալ երբեմն ոչ միայն էթիկական AI մոտեցումները չպահպանելը, այլև նույնիսկ գնալով այնքան հեռու, որ տապալել կամ տապալել AI-ի էթիկայի մոտեցումները:

AI-ի էթիկայի և էթիկական AI-ի իմ շարունակական և ընդարձակ լուսաբանման համար տե՛ս հղումն այստեղ և հղումն այստեղ, պարզապես մի քանի անուն:

AI Ethics-ի լվացման արագ օրինակը կարող է պատկերավոր լինել ձեզ համար:

Ենթադրենք, որ մի ընկերություն, որը ստեղծում է AI համակարգ, ցանկանում է աշխարհին հայտնել, թե որքան մեծ է լինելու իրենց AI-ն: Ընկերությունը որոշում է, որ AI-ի վերաբերյալ մամուլի և սոցիալական մեդիայի շատ դրական ուշադրություն գրավելու միջոցը կլինի հրապարակել, որ այն ստեղծվել է ամբողջովին արդար և հավասարակշռված AI-ի գործունեության մեջ: AI-ն լիովին վստահելի է: Ընկերությունը խստորեն պահպանել է այսպես կոչված ստեղծելու դրույթները Պատասխանատու AI, տես իմ լուսաբանումը հղումն այստեղ. Պնդումն այն է, որ AI-ի էթիկայի բոլոր գերակշռող սկզբունքները ինտեգրված են AI համակարգին:

Հոյակապ է հնչում!

Ընդամենը մեկ փոքրիկ խնդիր.

Պարզվում է, որ ընկերությունն այդ բաներից ոչ մեկը չի արել:

Նրանք չեն ենթարկվել AI-ի էթիկայի կանոններին: Ասացին, որ արել են, բայց չեն արել։ Ընկերության ղեկավարները և մարքեթինգային թիմը որոշեցին, որ պնդելը, որ նրանք խստորեն պահպանել են Էթիկական AI նկատառումները, ենթադրաբար լավ կլինի բիզնեսի համար: Կարիք չկա իրականում ծանր աշխատանք տանել այդ ձանձրալի AI-ի էթիկայի ուղեցույցներին, փոխարենը պարզապես ասեք, որ արել եք:

Այո՛, նրանք անմիջապես կարողանում են խթանել իրենց AI-ն՝ ցատկելով AI Ethics խմբի վրա:

Հեշտ-պզտիկ:

Բայց սա ռիսկային ուղի է, որը իրականում կարող է մեծ խնդիրներ առաջացնել:

Ընկերություններն ու առաջնորդները, որոնք որոշում են կեղծ կերպով վկայակոչել AI-ի էթիկան, երբ նրանք քիչ բան են արել էթիկական AI-ին պահպանելու համար, պոտենցիալ կերպով պատրաստվում են իրենց մեծ հետևանքներին: Նախ, եթե նրանք մի օր բացահայտվեն իրենց արհեստական ​​ինտելեկտի էթիկայի կեղծիքի հետ կապված, նրանք վտանգի են ենթարկում հեղինակության խիստ արձագանքը: Նրանք ստում էին արհեստական ​​ինտելեկտի էթիկայի մասին մտածելու մասին: Բացի այդ, ստի մեջ բռնված լինելը, անկախ արհեստական ​​ինտելեկտի էթիկայի հետ կապ ունենալուց, դրանք նաև ավելացնում է տաք ջրի մեջ: Դա ստելու երկու տարբերակ է։

Երկրորդ, բազմաթիվ իրավական հետևանքներ կարող են կծել նրանց և նրանց հաստատունությանը: Մեկն այն է, որ նրանք չեն արել այն, ինչ ասել են, որ արել են և կարող են պոտենցիալ օրինական պատասխանատվության ենթարկվել իրենց կեղծ պնդումների համար: Մյուսն այն է, որ նրանց արհեստական ​​ինտելեկտը, հավանաբար, կավարտվի, որ կխախտի օրենքները, որոնք վերաբերում են հասարակության զգայուն ոլորտներին, ինչպիսիք են անհարկի կողմնակալության դրսևորումը և խտրական ձևերով գործելը: Իրավական խնդիրների ցանկը երկար է և կարող է ի վերջո ստիպել ընկերությանը թանկարժեք իրավական պայքարի մեջ մտնել և, ինչպես որ ասես, խորտակել ամբողջ նավը:

Ինչո՞ւ է դժոխք ընկերությունը և նրա ղեկավարները նախընտրում օգտագործել արհեստական ​​ինտելեկտի էթիկայի լվացում:

Դե, Էթիկական AI-ի պրակտիկաների ներդրումը կարող է որոշ չափով ծախսատար լինել, չնայած հակափաստարկն այն է, որ արժեքը, ի վերջո, հեշտությամբ կգերազանցի AI-ի իսկական և բարձր տրամաչափի AI-ի էթիկայի մոտեցումներին հետևելու առավելությունները: Այնուամենայնիվ, որոշ ընկերություններ կնախընտրեն շուտափույթ դուրս բերել իրենց AI-ն, իսկ ավելի ուշ կմտածեն, որ նրանք անհանգստանալու են զարգացման գործընթացում Էթիկական AI-ին չդիտարկելու հետևանքով:

Հին գիծը կարծես թե իրագործվում է, որը բաղկացած է նրանից, որ վճարիր ինձ հիմա կամ վճարիր ինձ ավելի ուշ: Որոշ առաջնորդներ և ընկերություններ կարծում են, որ արժե գլորել զառախաղը և հուսալ, որ նրանք ստիպված չեն լինի վճարել ավելի ուշ վճարման գինը, երբ նրանք նախընտրում են կանխել «վճարել ինձ հիմա» կողմերը: Ես կպնդեմ, որ չկա անվճար ճաշ, երբ խոսքը վերաբերում է AI-ի էթիկայի: Կամ դու անում ես քո դերը, կամ կրում ես հետևանքները։

Դա չի նշանակում, որ այս ամենի մեջ շատ տեղաշարժեր չկան:

Ընկերությունները կարող են իրենց մատները թաթախել արհեստական ​​ինտելեկտի էթիկայի մեջ և հետո փորձել չափազանցնել, թե որքան են արել: Նրանց հավանական ենթադրությունն այն է, որ նրանք կունենան բավարար պաշտպանություն՝ հակազդելու ցանկացած մեղադրանքին, որ նրանք ընդհանրապես չեն ներառում AI էթիկան: Նրանք կարող են մատնանշել արհեստական ​​ինտելեկտի էթիկայի կիսատ-պռատ գործունեության ինչ-որ ձև, որը կարող է նրանց դուրս հանել կեռից: Այսպիսով, բանավեճն այնուհետև փոխվում է այն բանից, որ նրանք չեն կատարել արհեստական ​​ինտելեկտի էթիկայի որևէ ջանք, և փոխարենը դառնում է այն, թե արդյոք նրանք բավարար չափով են արել, թե ոչ:

Սա փաստարկ է, որը կարող է գրեթե անվերջ գնալ և թույլ տալ AI Ethics լվացող մատակարարին մանևրելու շատ տեղ:

Խայտառակ ասպեկտների մի մասն այն է, որ դեռևս չկան համաձայնեցված համընդհանուր և վերջնականապես կիրառելի չափանիշներ AI-ի էթիկայի վերաբերյալ: Առանց չափումների համահունչ և համապարփակ փաթեթի, ցանկացած քննարկում այն ​​մասին, թե արդյոք AI-ի էթիկան պատշաճ կերպով պահպանվել է, կլինի մեղմ և ցեխոտ: Ընկերությունը կպնդի, որ նրանք բավականաչափ արեցին: Արտաքին անձը կամ այլ անձը, որը պնդում է, որ ընկերությունը բավականաչափ չի արել, դժվարին կռիվ կունենա, որը ցույց կտա նման հակասություն: Անորոշությունը կարող է տիրել։

Նախքան AI Ethics-ի լվացման հիմքում ընկած վայրի և բրդյա նկատառումների մասին մի քանի այլ մսի և կարտոֆիլի մասին խոսելը, եկեք որոշ լրացուցիչ հիմունքներ հիմնենք խորապես անբաժանելի թեմաների վերաբերյալ: Մենք պետք է հակիրճ ուսումնասիրենք AI-ի էթիկա և հատկապես Մեքենայական ուսուցման (ML) և Deep Learning (DL) ի հայտ գալը:

Դուք կարող եք անորոշ տեղյակ լինել, որ այս օրերի ամենաբարձր ձայներից մեկը AI ոլորտում և նույնիսկ արհեստական ​​ինտելեկտի դաշտից դուրս բաղկացած է էթիկական արհեստական ​​ինտելեկտի ավելի մեծ երևույթի մասին աղաղակելուց: Եկեք նայենք, թե ինչ է նշանակում հղում կատարել AI-ի էթիկային և էթիկական AI-ին: Բացի այդ, մենք կուսումնասիրենք, թե ինչ նկատի ունեմ, երբ խոսում եմ մեքենայական ուսուցման և խորը ուսուցման մասին:

Արհեստական ​​ինտելեկտի էթիկայի որոշակի հատված կամ մի հատված, որը արժանացել է ԶԼՄ-ների մեծ ուշադրությանը, բաղկացած է AI-ից, որը ցուցադրում է անբարենպաստ կողմնակալություններ և անհավասարություններ: Դուք կարող եք տեղյակ լինել, որ երբ սկսվեց AI-ի վերջին դարաշրջանը, խանդավառության մեծ պոռթկում էր այն, ինչ այժմ ոմանք անվանում են: AI For Good. Ցավոք սրտի, այդ բուռն հուզմունքից հետո մենք սկսեցինք ականատես լինել AI For Bad. Օրինակ, AI-ի վրա հիմնված դեմքի ճանաչման տարբեր համակարգեր բացահայտվել են որպես ռասայական և գենդերային կողմնակալություններ պարունակող, որոնք ես քննարկել եմ հղումն այստեղ.

Դեմ պայքարելու ջանքերը AI For Bad ակտիվորեն ընթանում են։ Բացի աղմկոտ իրավական Սխալ արարքները զսպելու ձգտումները, կա նաև զգալի մղում դեպի AI էթիկան ընդունելու՝ AI-ի ստորությունը շտկելու համար: Հասկացությունը կայանում է նրանում, որ մենք պետք է ընդունենք և հաստատենք Արհեստական ​​ինտելեկտի էթիկական հիմնական սկզբունքները Արհեստական ​​ինտելեկտի զարգացման և ներդրման համար՝ դա անելով նվազեցնելու համար AI For Bad և միաժամանակ ազդարարելով և խթանելով նախընտրելիը AI For Good.

Համապատասխան հասկացության համաձայն՝ ես AI-ն օգտագործելու ջատագովն եմ՝ որպես արհեստական ​​ինտելեկտի դժբախտությունների լուծման մաս՝ կրակը կրակի հետ պայքարելով այդ մտածելակերպով: Օրինակ՝ մենք կարող ենք ներդնել Արհեստական ​​ինտելեկտի էթիկական բաղադրիչները արհեստական ​​ինտելեկտի համակարգում, որը կհետևի, թե ինչպես է AI-ի մնացած անդամներն անում բաներ և այդպիսով իրական ժամանակում պոտենցիալ կերպով կբռնեն ցանկացած խտրական ջանք, տես իմ քննարկումը. հղումն այստեղ. Մենք կարող ենք նաև ունենալ AI-ի առանձին համակարգ, որը հանդես է գալիս որպես AI Էթիկայի մոնիտոր: Արհեստական ​​ինտելեկտի համակարգը ծառայում է որպես վերահսկիչ՝ հետևելու և հայտնաբերելու, թե երբ է մեկ այլ AI գնում ոչ էթիկական անդունդ (տե՛ս նման հնարավորությունների իմ վերլուծությունը այստեղ՝ հղումն այստեղ).

Քիչ անց ես ձեզ հետ կկիսվեմ AI-ի էթիկայի հիմքում ընկած մի քանի հիմնական սկզբունքներով: Այս տեսակի ցուցակները շատ են լողում այս ու այն կողմ: Կարելի է ասել, որ դեռևս չկա համընդհանուր բողոքարկման և համաձայնության եզակի ցուցակ: Սա ցավալի լուր է: Լավ նորությունն այն է, որ գոնե կան AI-ի էթիկայի մատչելի ցուցակներ, և դրանք հակված են միանգամայն նման լինել: Ընդհանուր առմամբ, սա ենթադրում է, որ մի տեսակ հիմնավորված մերձեցման միջոցով մենք գտնում ենք մեր ճանապարհը դեպի ընդհանուր ընդհանրություն, թե ինչից է բաղկացած AI էթիկան:

Նախ, եկեք համառոտ անդրադառնանք էթիկական արհեստական ​​ինտելեկտի ընդհանուր կանոններից մի քանիսին, որպեսզի ցույց տանք, թե ինչ պետք է լինի կենսական նշանակություն ունեցող ցանկացած մարդու համար, ով արհեստագործում է, զբաղվում կամ օգտագործում է AI:

Օրինակ, ինչպես նշվում է Վատիկանի կողմից Հռոմը AI-ի էթիկայի կոչ է անում և քանի որ ես խորությամբ անդրադարձել եմ հղումն այստեղ, սրանք են նրանց բացահայտված AI-ի էթիկայի վեց հիմնական սկզբունքները.

  • Թափանցիկություն. Սկզբունքորեն, AI համակարգերը պետք է բացատրելի լինեն
  • Ներառումը. Պետք է հաշվի առնել բոլոր մարդկանց կարիքները, որպեսզի բոլորը կարողանան օգուտ քաղել, և բոլոր անհատներին առաջարկել լավագույն պայմաններն ինքնադրսևորվելու և զարգանալու համար։
  • Պատասխանատվություն ` Նրանք, ովքեր նախագծում և կիրառում են AI-ի օգտագործումը, պետք է գործեն պատասխանատվությամբ և թափանցիկությամբ
  • Անաչառություն. Մի ստեղծեք կամ մի գործեք ըստ կողմնակալության՝ դրանով իսկ պաշտպանելով արդարությունն ու մարդկային արժանապատվությունը
  • հուսալիություն: AI համակարգերը պետք է կարողանան հուսալիորեն աշխատել
  • Անվտանգություն և գաղտնիություն. AI համակարգերը պետք է ապահով աշխատեն և հարգեն օգտատերերի գաղտնիությունը:

Ինչպես նշված է ԱՄՆ պաշտպանության նախարարության (DoD) կողմից իրենց Արհեստական ​​ինտելեկտի օգտագործման էթիկական սկզբունքներ և քանի որ ես խորությամբ անդրադարձել եմ հղումն այստեղ, սրանք են AI-ի նրանց վեց հիմնական էթիկայի սկզբունքները.

  • Պատասխանատու: DoD անձնակազմը կկիրառի դատողության և խնամքի համապատասխան մակարդակներ՝ միաժամանակ պատասխանատու մնալով AI կարողությունների զարգացման, տեղակայման և օգտագործման համար:
  • Արդար: Դեպարտամենտը կանխամտածված քայլեր կձեռնարկի՝ նվազագույնի հասցնելու AI կարողությունների մեջ չնախատեսված կողմնակալությունը:
  • Հետագծելի: Դեպարտամենտի AI կարողությունները կզարգացվեն և կտեղակայվեն այնպես, որ համապատասխան անձնակազմը համապատասխան պատկերացում ունենա տեխնոլոգիայի, զարգացման գործընթացների և գործառնական մեթոդների մասին, որոնք կիրառելի են AI կարողությունների համար, ներառյալ թափանցիկ և աուդիտի ենթարկվող մեթոդաբանությունները, տվյալների աղբյուրները և նախագծման ընթացակարգն ու փաստաթղթերը:
  • Վստահելի: Դեպարտամենտի արհեստական ​​ինտելեկտի հնարավորությունները կունենան հստակ, հստակորեն սահմանված կիրառումներ, և նման հնարավորությունների անվտանգությունը, անվտանգությունը և արդյունավետությունը ենթակա կլինեն փորձարկման և հավաստիացման՝ սահմանված օգտագործման շրջանակում դրանց ողջ կյանքի ընթացքում:
  • Կառավարվող. Դեպարտամենտը նախագծելու և նախագծելու է AI-ի հնարավորությունները՝ իրականացնելու իրենց նախատեսված գործառույթները՝ միաժամանակ ունենալով անցանկալի հետևանքները հայտնաբերելու և խուսափելու, ինչպես նաև չնախատեսված վարք դրսևորող տեղակայված համակարգերը անջատելու կամ անջատելու կարողություն:

Ես նաև քննարկել եմ AI էթիկայի սկզբունքների տարբեր կոլեկտիվ վերլուծություններ, ներառյալ հետազոտողների կողմից մշակված մի շարք, որոնք ուսումնասիրել և խտացրել են բազմաթիվ ազգային և միջազգային AI էթիկայի դրույթների էությունը «Արհեստական ​​ինտելեկտի էթիկայի գլոբալ լանդշաֆտը» վերնագրով հոդվածում (հրատարակված): մեջ բնություն), և որ իմ լուսաբանումն ուսումնասիրում է հղումն այստեղ, որը հանգեցրեց այս հիմնական ցուցակին.

  • Թափանցիկություն
  • Արդարություն և արդարություն
  • Ոչ չարամտություն
  • պատասխանատվություն
  • Գաղտնիության
  • Բարեգործություն
  • Ազատություն և ինքնավարություն
  • Վստահեք
  • Կայունություն
  • Արժանապատվություն
  • Համերաշխություն

Ինչպես կարող եք ուղղակիորեն կռահել, այս սկզբունքների հիմքում ընկած առանձնահատկությունները պարզելու փորձը կարող է չափազանց դժվար լինել: Առավել եւս, որ այդ լայն սկզբունքները լիովին շոշափելի և բավականաչափ մանրամասն ինչ-որ բանի վերածելու ջանքերը, որոնք կարող են օգտագործվել արհեստական ​​ինտելեկտի համակարգեր ստեղծելու ժամանակ, նույնպես դժվար է կոտրել: Հեշտ է ընդհանուր առմամբ ձեռքով պարզել, թե ինչ են AI-ի էթիկայի կանոնները և ինչպես պետք է դրանք ընդհանուր առմամբ պահպանվեն, մինչդեռ AI կոդավորման մեջ շատ ավելի բարդ իրավիճակ է, որը պետք է լինի իրական ռետինը, որը համապատասխանում է ճանապարհին:

AI-ի էթիկայի սկզբունքները պետք է օգտագործվեն արհեստական ​​ինտելեկտի մշակողների կողմից, ինչպես նաև նրանք, ովքեր ղեկավարում են AI-ի զարգացման ջանքերը, և նույնիսկ նրանք, ովքեր, ի վերջո, կիրառում և պահպանում են AI համակարգերը: Բոլոր շահագրգիռ կողմերը AI-ի զարգացման և օգտագործման ողջ ցիկլի ընթացքում համարվում են Էթիկական AI-ի հաստատված նորմերին պահպանելու շրջանակում: Սա կարևոր կետ է, քանի որ սովորական ենթադրությունն այն է, որ «միայն կոդավորողները» կամ նրանք, ովքեր ծրագրավորում են AI-ն, ենթակա են հավատարիմ մնալու AI-ի էթիկայի հասկացություններին: Ինչպես արդեն նշվեց, AI-ի մշակման և դաշտի մշակման համար անհրաժեշտ է գյուղ, և որի համար ամբողջ գյուղը պետք է տիրապետի և պահպանի AI-ի էթիկայի կանոնները:

Եկեք նաև համոզվենք, որ մենք նույն էջում ենք այսօրվա AI-ի բնույթի վերաբերյալ:

Այսօր չկա որևէ AI, որը զգայուն է: Մենք սա չունենք: Մենք չգիտենք, թե արդյոք հնարավո՞ր է խելացի AI-ն: Ոչ ոք չի կարող տեղին կանխագուշակել, թե արդյոք մենք կհասնենք խելամիտ AI-ին, և ոչ էլ արդյոք զգայական AI-ն ինչ-որ կերպ հրաշքով ինքնաբերաբար կառաջանա հաշվողական ճանաչողական գերնոր աստղի տեսքով (սովորաբար կոչվում է եզակիություն, տե՛ս իմ լուսաբանումը այստեղ. հղումն այստեղ).

AI-ի տեսակը, որի վրա ես կենտրոնանում եմ, բաղկացած է ոչ զգայուն AI-ից, որն այսօր ունենք: Եթե ​​ուզենայինք կատաղի ենթադրություններ անել զգայուն AI, այս քննարկումը կարող է գնալ արմատապես այլ ուղղությամբ: Զգացող AI-ն ենթադրաբար մարդկային որակի կլիներ: Պետք է հաշվի առնել, որ զգայուն AI-ն մարդու ճանաչողական համարժեքն է: Ավելին, քանի որ ոմանք ենթադրում են, որ մենք կարող ենք ունենալ սուպեր-խելացի AI, կարելի է պատկերացնել, որ այդպիսի AI-ն կարող է ավելի խելացի լինել, քան մարդիկ (սուպեր-խելացի AI-ի իմ հետազոտության համար, տես. լուսաբանումն այստեղ).

Եկեք ամեն ինչ ավելի պարզ պահենք և հաշվի առնենք այսօրվա հաշվողական ոչ զգայուն AI-ն:

Գիտակցեք, որ այսօրվա AI-ն ի վիճակի չէ «մտածել» մարդկային մտածողությանը հավասար: Երբ դուք շփվում եք Alexa-ի կամ Siri-ի հետ, խոսակցական կարողությունները կարող են նման լինել մարդկային կարողություններին, բայց իրականությունն այն է, որ այն հաշվողական է և չունի մարդկային ճանաչողություն: AI-ի վերջին դարաշրջանը լայնորեն օգտագործել է մեքենայական ուսուցում (ML) և Deep Learning (DL), որոնք օգտագործում են հաշվողական օրինաչափությունների համընկնումը: Սա հանգեցրել է արհեստական ​​ինտելեկտի համակարգերի, որոնք ունեն մարդու նման հակումների տեսք: Միևնույն ժամանակ, այսօր չկա որևէ արհեստական ​​բանականություն, որն ունի ողջամտության նմանություն և ոչ էլ ունի ուժեղ մարդկային մտածողության ճանաչողական հրաշք:

ML/DL-ը հաշվողական օրինաչափությունների համապատասխանության ձև է: Սովորական մոտեցումն այն է, որ դուք հավաքում եք տվյալներ որոշումներ կայացնելու առաջադրանքի վերաբերյալ: Դուք սնուցում եք տվյալները ML/DL համակարգչային մոդելների մեջ: Այդ մոդելները ձգտում են գտնել մաթեմատիկական օրինաչափություններ: Այդպիսի օրինաչափություններ գտնելուց հետո, եթե գտնվեն, ապա արհեստական ​​ինտելեկտի համակարգը կօգտագործի այդ օրինաչափությունները նոր տվյալների հանդիպելիս: Նոր տվյալների ներկայացումից հետո «հին» կամ պատմական տվյալների վրա հիմնված օրինաչափությունները կիրառվում են ընթացիկ որոշում կայացնելու համար:

Կարծում եմ, դուք կարող եք կռահել, թե ուր է սա գնում: Եթե ​​մարդիկ, ովքեր որոշումներ են կայացնում, իրենց մեջ ներդնում են անբարենպաստ կողմնակալություն, ապա հավանականությունն այն է, որ տվյալներն արտացոլում են դա նուրբ, բայց նշանակալի ձևերով: Մեքենայի ուսուցումը կամ խորը ուսուցման հաշվողական օրինաչափությունների համընկնումը պարզապես կփորձի համապատասխանաբար մաթեմատիկորեն նմանակել տվյալները: Առողջ դատողության կամ AI-ի կողմից ստեղծված մոդելավորման այլ զգալի ասպեկտներ ինքնին չկա:

Ավելին, AI մշակողները նույնպես կարող են չհասկանալ, թե ինչ է կատարվում: ML/DL-ի գաղտնի մաթեմատիկան կարող է դժվարացնել այժմ թաքնված կողմնակալությունների բացահայտումը: Դուք իրավամբ հույս կունենաք և ակնկալում եք, որ AI մշակողները կփորձարկեն պոտենցիալ թաղված կողմնակալության համար, թեև դա ավելի բարդ է, քան կարող է թվալ: Մեծ հավանականություն կա, որ նույնիսկ համեմատաբար լայնածավալ փորձարկումների դեպքում, ML/DL-ի օրինաչափությունների համապատասխանող մոդելներում դեռևս առկա կլինեն կողմնակալություններ:

Դուք կարող եք ինչ-որ չափով օգտագործել աղբի մեջ աղբի դուրս գալու հայտնի կամ տխրահռչակ ասացվածքը: Բանն այն է, որ սա ավելի շատ նման է կողմնակալություններին, որոնք նենգորեն ներարկվում են որպես AI-ի մեջ ընկղմված կողմնակալություններ: AI-ի որոշումների կայացման ալգորիթմը (ADM) աքսիոմատիկորեն ծանրաբեռնված է անհավասարություններով:

Ոչ լավ.

Հիմա վերադառնանք AI Էթիկայի լվացման թեմային։

Գոյություն ունեն արհեստական ​​ինտելեկտի էթիկայի լվացման չորս հիմնական տարբերակներ, որոնք ես սովորաբար տեսնում եմ (ես դրանք մի պահ կբացատրեմ).

1) AI էթիկայի լվացող մեքենաներ, որոնք չգիտեն, որ դրանք են. Արհեստական ​​ինտելեկտի էթիկա՝ անտեղյակության կամ անգրագիտության պատճառով AI և/կամ AI էթիկայի վերաբերյալ

2) AI-ի էթիկայի լվացող սարքերը, որոնք ընկնում են դրա մեջ. AI Ethics-ը լվացվում է պատահական սայթաքմամբ, թեև այլ կերպ իրական է AI Ethics-ի և AI-ի վերաբերյալ

3) AI էթիկայի լվացող մեքենաներ, որոնք բարակ ձգվում են. Արհեստական ​​ինտելեկտի էթիկա լվացվում է նպատակաուղղված մտադրությամբ, թեև պարզապես սրիկայով և երբեմն գրեթե ներելի (կամ ոչ)

4) AI-ի էթիկայի լվացող մեքենաները, որոնք գիտեն և լկտիաբար վաճառում են այն. Արհեստական ​​ինտելեկտի էթիկա, որն ամբողջությամբ լվանում է նենգ և հաճախ աղաղակող դիզայնով

Ես, ընդհանուր առմամբ, կառաջարկեի, որ չորս տարբերակները տատանվում են՝ եթե ասենք ամենաանմեղը, մինչև ամենամեղավորը, մինչև գիտակցությունը, թե ինչ է AI Էթիկայի լվացումը: Եկեք քայլենք չորսից յուրաքանչյուրի միջով՝ սկսելով առաջինից և հասնելով բավականին ամոթալի չորրորդին:

Նախ, դուք ունեք այնպիսիք, որոնք ինչ-որ չափով չլվացված են, քանի որ նրանք չգիտեն, թե ինչ է AI էթիկան, նրանք չգիտեն, թե ինչ է AI-ի էթիկայի լվացումը, և հավանաբար նույնիսկ շատ բան չգիտեն AI-ի մասին: Կարելի է ասել՝ անգրագետ են կամ անգրագետ այդ թեմաներով։ Նրանց համար նրանք, հավանաբար, կատարում են AI Ethics-ի լվացում և կուրորեն և երանաբար չեն գիտակցում, որ դա անում են:

Սա ցավալի է:

Հատկապես վատ կարող է լինել նաև, եթե արհեստական ​​ինտելեկտի էթիկայի լվացումն իրականացվում է խոշոր լրատվական գործակալության կամ սոցիալական լրատվամիջոցների բարձր մակարդակի ազդեցիկների կողմից: Նրանք կարող էին կերակրվել ստի մահճակալով, և նրանք չէին ստուգում այդ կեղծիքները: Միևնույն ժամանակ, նրանք օգտագործում են իրենց հասանելիությունն ու ազդեցությունը՝ AI-ի էթիկայի լվացման պահանջները հավերժացնելու համար: Ցավալի և ավելի վատ է, որ դա արջի ծառայություն է մատուցում հասարակությանը: Ամոթ նրանց, ովքեր թույլ են տալիս իրենց խաբել: Նրանք պետք է իմաստուն լինեն: Հիշեք, որ հիմար լինելն ու հիմար երևալը մերձավոր զարմիկներ են:

Հաջորդը AI Ethics լվացումն է, որը սայթաքում է: Պատկերացրեք, որ ընկերությունը բավականին լավ է անում՝ պահպանելով AI-ի էթիկայի կանոնները: Մենք կարող ենք շնորհավորել նրանց դա անելու համար: Ցավոք սրտի, ենթադրենք, որ ինչ-որ պահի նրանք հայտարարություն են անում իրենց AI-ի մասին, որը լավ չի աջակցվում AI-ի էթիկայի տեսանկյունից: Եթե ​​սա համեմատաբար անվնաս հայտարարություն է կամ ոչ միտումնավոր սխալ, մենք կարող ենք նրանց որոշակի ազատություն տալ: Իհարկե, եթե այն կետը, որը նրանք նշել են, բացահայտորեն անցնում է գծի վրա, ապա սայթաքումն այնքան էլ հեշտությամբ չի անտեսվում: Հայտնի տող կա, որ համբավ ստեղծելու համար ընդմիշտ է պահանջվում, սակայն այն ամբողջությամբ քանդելու համար ընդամենը կարճ պահ է պահանջվում:

Մենք հաջորդաբար մտնում ենք չորս կատեգորիաներից վերջին երկուսը:

Սրանք այն մեղավորներն են, որոնք լիովին տեղյակ են AI-ի էթիկայի լվացմանը և գիտակցաբար, բացահայտ մտադրությամբ որոշում են օգտագործել այն, գուցե որպես կորպորատիվ ռազմավարության մաս կամ այլ աստվածային միջոցներով: Այս վերջին երկուսի հիմնական տարբերությունն այն է, որ արհեստական ​​ինտելեկտի էթիկայի լվացումը կարող է լինել աննշան, կամ կարող է լինել էական և կարևոր: Դուք ունեք մի քանիսը, որոնք նախընտրում են ձգել իրերը և պարզապես մի փոքր շրջել գծի վրայով: Կան ուրիշներ, որոնք պատրաստ են AI Ethics-ի լվացումը ծայրահեղության հասցնել:

Դուք կարող եք մտածել, որ, անշուշտ, ցանկացած ծայրահեղ AI Էթիկայի լվացում պետք է ակնհայտ լինի, և որ ծայրահեղականը ձեռքը կբռնվի թխվածքաբլիթի տարայի մեջ: Բոլորը կտեսնեին, որ կայսրը հագուստ չունի։ Ցավոք սրտի, հաշվի առնելով այսօր աշխարհում AI-ի և AI-ի էթիկայի վերաբերյալ ընդհանուր շփոթությունը, բավական խղճուկ կա, որ նույնիսկ ծայրահեղ AI-ի էթիկայի լվացումը կարող է անվճար անցում ստանալ:

Սա կարող է բավականին զայրացուցիչ լինել նրանց համար, ովքեր կողմ են AI-ի էթիկայի վերաբերյալ լուրջ և սթափ լինելուն: Նրանք դիտում են, թե ինչպես է մեկ ուրիշը շպրտում ամենատարբեր թեքությունները, որոնք չափազանց ակնհայտ են AI Ethics-ի լվացման մեջ: Ծայրահեղականը արժանանում է զանգվածային լրատվամիջոցների ուշադրությանը. Նրանք ունեն իրենց փառքի 15 րոպեն: Նրանք, ովքեր անում են իրական աշխատանքն ու ճիշտը, երբ խոսքը վերաբերում է AI-ի էթիկայի, կարող են արդարացիորեն վրդովված և արդարացիորեն վրդովված զգալ, երբ AI Ethics-ի լվացումն իրականացվում է շուկայում ուրիշների կողմից անվճար:

Դա կարելի է գրեթե համեմատել սպորտում տեղի ունեցող հյութերի և դոպինգի հետ: Մարզիկը, ով իր սիրտն ու հոգին ներդրել է, որ բնականաբար բարձրակարգ մարզիկ դառնա, կարող է լիովին տապալվել, եթե մեկ ուրիշին հաջողվի մրցել իրենց նույն մակարդակի վրա և դա անի արգելված արդյունավետությունը բարձրացնող դեղամիջոցների օգտագործման միջոցով: Պե՞տք է կանչեք մյուս փչացնողը: Արդյո՞ք դուք պետք է հանգիստ նախընտրե՞ք ընդունել նաև այդ դեղամիջոցները՝ կրակի հետ պայքարելով: Սա հանելուկ է։ Իմ քննարկման համար, թե ինչպես է հյութազատումը կամ դոպինգը տեղի ունենում AI ոլորտում, տե՛ս հղումն այստեղ.

Այժմ, երբ մենք մի փոքր անդրադարձել ենք AI-ի էթիկայի լվացման մասին, մենք կարող ենք ներկայացնել մի շարք այլ հարակից արտահայտություններ, որոնք հավասարապես նույն ասպարեզում են:

Ահա մի քանիսը, որոնք մենք կարող ենք համառոտ ուսումնասիրել.

  • AI Էթիկայի թատրոն
  • AI Ethics գնումներ
  • AI Էթիկայի հարված
  • AI Էթիկայի պաշտպանություն
  • AI Ethics Fairwashing

Եկեք համառոտ քննենք այդ բառակապակցություններից յուրաքանչյուրը: Ոչ բոլորն են համաձայն, թե ինչ է նշանակում յուրաքանչյուր արտահայտություն, ուստի ես ձեզ հետ կկիսվեմ իմ ընդհանուր տպավորություններով:

AI Էթիկայի թատրոն

AI Ethics թատրոնը կարող է ինչ-որ չափով նմանվել AI Ethics-ին, քանի որ գաղափարն այն է, որ զգալի կերպով ցուցադրվի AI-ի էթիկայի կանոնները դիտարկված բեմականացված և ծիսական ձևով: Եթե ​​ընկերությունն, որն իրականացնում է կրկեսը կամ AI Ethics թատրոնը, իսկապես պահպանում էր AI-ի էթիկայի պրակտիկաները, կարող եք փաստարկ բերել, որ նրանք արդարացիորեն պետք է կարողանան դա անել: Իրոք, դուք կարող եք նաև պնդել, որ դա, հուսով ենք, կոգեշնչի մյուսներին նույնպես պահպանել AI-ի էթիկան:

Մյուս կողմից, թվում է, որ AI Էթիկայի թատրոնը սովորաբար հակված է չափն անցնելու: Այդ բոլոր պոնիների և փղերի կրկեսային գործողությունը կարող է գերագնահատել այն, ինչ իրականում ձեռնարկվել է: Սա իր հերթին սկսում է մտնել վերոհիշյալ AI Ethics-ի լվացման երկրորդ, երրորդ կամ չորրորդ կատեգորիայի մեջ: Արդյո՞ք թատրոնն ավելի լավն է, քան վատը (օրինակ՝ ոգեշնչող լինելը), կամ ավելի վատը, քան լավը (հնարավոր է, որ խթանի AI-ի էթիկայի ողողումը ուրիշների կողմից), մնում է պարզել:

AI Ethics Shopping

Պատկերացրեք, որ ընկերությունը պատրաստվում է կառուցել AI համակարգ և գիտակցում է, որ նրանք պետք է ներառեն AI-ի էթիկայի ասպեկտները AI-ի զարգացման կյանքի ցիկլի ընթացքում: Արհեստական ​​ինտելեկտի էթիկայի բազմաթիվ ուղեցույցներից ո՞րը պետք է օգտագործեն:

Դրանցից մի քանիսը միանգամից ընտրելը կարող է շփոթեցնող լինել և նրանց AI-ի ջանքերը չափից դուրս մեծացնել: Հավանականությունն այն է, որ զարգացման ջանքերն ավելի հավանական է, որ կհամապատասխանեն արհեստական ​​ինտելեկտի էթիկայի պրակտիկաներին, եթե կա մեկ ներքին ընդունված հավաքածու, որին բոլորը կարող են հեշտությամբ անդրադառնալ և իմաստավորել:

Լավ, այնպես որ AI-ի էթիկայի սկզբունքների շարքին հասնելու միջոցներից մեկը կլինի շատ մատչելիներից միայն մեկը ընտրելը: Մյուսը կլինի վերցնել մի քանի հավաքածու և փորձել դրանք միավորել միասին: Միաձուլման հետ կապված խնդիրը կարող է լինել այն, որ դուք շատ թանկարժեք էներգիա և ժամանակ եք ծախսում բանավեճի վրա, թե ինչպես կարելի է լավագույնս միավորել հավաքածուները մեկ համապարփակ ամբողջության մեջ: Նման ուշադրությունը, հավանաբար, կշեղի ձեզ զարգացնելու գործընթացից, ինչպես նաև կարող է AI թիմին զայրացնել զուտ այն սուր բանավեճերի պատճառով, որոնք կարող էին տեղի ունենալ AI-ի էթիկայի միաձուլման գործունեության ընթացքում:

Ընդհանուր առմամբ, դուք կարող եք նաև փորձել ձեր ուշադրությունը ուղղել AI-ի էթիկայի ուղեցույցների մի շարքին, որոնք, ձեր կարծիքով, ամենահեշտն են լինելու: Սա միանգամայն լավ կթվա: Ինչու՞ կյանքն ավելի դժվարացնել, քան այն, հավանաբար, արդեն կա: Նույն շնչով, ենթադրելով, որ դուք ընտրում եք AI Ethics հավաքածու, որը ջրում է: Դուք ձգտում եք անել նվազագույնը, ինչ կարող եք անել: Դուք ցանկանում եք ձեր գլուխը բարձր պահել, որ պահպանել եք արհեստական ​​ինտելեկտի էթիկայի կանոնները, միևնույն ժամանակ գաղտնի ընտրելով մինիմալիստականը կամ գուցե նույնիսկ ավելի քիչ:

Ոմանք սա կանվանեն որպես AI Էթիկայի գնումներ:

Դուք գնումներ եք կատարում՝ գտնելու արհեստական ​​ինտելեկտի էթիկայի սկզբունքները, որոնք ձեզ ամենահեշտ ճանապարհը կտան՝ պնդելու, որ դուք պահպանում եք AI էթիկայի կանոնները: Սա իմաստ ունի այն առումով, որ ինչու պետք է անեք ավելին, քան անհրաժեշտ է: Այնուամենայնիվ, դա կարող է խեղաթյուրվել՝ գտնելով AI-ի էթիկայի բարակ քողարկված մի շարք և կառչելով դրան, կարծես այն ամուր և բարեխիղճ է, երբ իրականությունն այն է, որ այն նոսր է և լուսանցքային:

AI-ի էթիկայի խախտում

Արհեստական ​​ինտելեկտի էթիկայի հարվածի հասկացությունը որոշ չափով պարզ է:

Դուք վիրավորում կամ նսեմացնում եք AI-ի էթիկայի կանոնների բնույթն ու օգտագործումը: Դաժանության տարածված ձևը կլինի պնդել, որ արհեստական ​​ինտելեկտի էթիկայի ուղեցույցներն անարժեք են և արժանի չեն այն թղթին, որի վրա տպագրված են: Մեկ այլ տարածված հարվածն այն է, որ AI Էթիկան ակադեմիական վարժություն է, որը ոչ մի կապ չունի իրական աշխարհի հետ: Նույնիսկ հորդոր կա, որ AI-ի էթիկան վատ է, հավանաբար այն պատճառով, որ այն կեղծ ծածկույթ է ապահովում նրանց համար, ովքեր ցանկանում են թվալ, թե իրենք ճիշտ են զարգացնում AI-ն: Այդ կերպ, AI էթիկան ծածկույթի սխեմա է:

Ես չեմ անդրադառնա արհեստական ​​ինտելեկտի էթիկայի հարվածի երևույթներին և կառաջարկեմ ձեզ տեսնել իմ լուսաբանումը, թե ինչու են այդ հարվածները կամ սխալ կամ առնվազն սխալ ուղղորդված, տես. հղումն այստեղ.

AI Էթիկայի պաշտպանություն

AI Էթիկայի պաշտպանությունը սովորաբար վերաբերում է այն մտքին, որ AI Ethics-ը խաբուսիկ տեսակի վահան է, որը կարող է թաքցնել կամ թաքցնել վատ դերասաններին և AI-ի էթիկայի վատ ջանքերը: Այս քննարկման ընթացքում ես բազմիցս ակնարկել եմ դրան:

Շարունակվող անհանգստություն կա, որ ոմանք հպարտությամբ կցուցադրեն, որ օգտագործում են արհեստական ​​ինտելեկտի էթիկան, և հիմքում ընկած իրականությունն այն է, որ նրանք գրեթե նման բան չեն անում: Նրանց համար, ովքեր ասում են, որ մենք պետք է ամբողջությամբ ազատվենք վահանից, ես հակված եմ հակադարձելու, որ սա նման է երեխային լոգանքի ջրով դուրս նետելուն:

AI Ethics Fairwashing

Կարևոր է արդարությունը.

Դուք կարող եք հիշել, որ երբ ես քննարկում էի AI-ի էթիկայի կանոնները, արհեստական ​​ինտելեկտի էթիկայի ամենահաճախ հայտնաբերված ուղեցույցներից մեկը բաղկացած է համոզվելու համար, որ AI-ն արդար է կամ ցուցադրում է արդարության տեսք: Սա առաջացրել է «Fairwashing» բառակապակցությունը, որը երբեմն օգտագործվում է արթնացնելու այն հնարավորությունը, որ AI համակարգը ասվում կամ հայտարարվում է, որ արդար է, երբ այն կարող է արդարացի չլինել կամ քիչ ապացույցներ կան, որոնք հաստատում են, որ այն արդար է: Սա արհեստական ​​ինտելեկտի էթիկայի մի փոքր խառնուրդ է՝ Արհեստական ​​ինտելեկտի արդարացի լինելու հայեցակարգային նկատառումով, հետևաբար դա արտահայտելու դյուրանցման ձևն է՝ ասելով, որ հնարավոր է fairwashing դա կարող է պատահել: Հետազոտողները նկարագրում են հարցը այսպես. «Մասնավորապես, մեքենայական ուսուցման մեջ արդարության հասկացությունների աճող կարևորության պատճառով ընկերությունը կարող է գայթակղվել կատարել արդար լվացում, որը մենք սահմանում ենք որպես խթանող կեղծ ընկալում, որ ընկերության կողմից օգտագործվող ուսուցման մոդելները: արդար են, մինչդեռ կարող է այդպես չլինել» (Ուլրիխ Այիվոդջիի, Հիրոմի Արայի, Օլիվյե Ֆորտինոյի, Սեբաստիեն Գամբսի, Սատոշի Հարայի և Ալեն Թափի հեղինակները «Fairwashing. The Risk Of Rationalization» ֆիլմում):

AI Էթիկայի լվացման ևս մեկ շրջադարձ կա, որը դուք պետք է հաշվի առնեք:

Ինչ-որ չափով մակրոսկոպիկ մասշտաբով, կա արտահայտված մտահոգություն, որ արհեստական ​​ինտելեկտի էթիկայի վերելքը վահան կամ ծածկ է ավելի մեծ բանի համար: Դուք կարող եք տեղյակ լինել, որ կան բազմաթիվ ջանքեր՝ AI-ի կառավարման վերաբերյալ օրենքներ սահմանելու ուղղությամբ: Սա տեղի է ունենում ամբողջ աշխարհում: ԵՄ-ում ընթանում են բուռն ջանքեր, որոնք ես անդրադարձել եմ իմ սյունակներում, ինչպես նաև ԱՄՆ-ում, ինչպես նաև տեղի են ունենում շատ երկրներում:

Ոմանք ենթադրում են, որ արհեստական ​​ինտելեկտի էթիկայի ընդունումը կարող է լինել այդ օրենքների ընդունումը կասեցնելու միջոց: Ընկերությունները կարող են թվացյալ համոզիչ կերպով պնդել, որ նոր օրենքների կարիք չկա, քանի որ արհեստական ​​ինտելեկտի էթիկայի օգտագործումը պատշաճ կերպով վերաբերում է AI-ի ցանկացած խնդրին: AI էթիկան սովորաբար դասակարգվում է որպես «փափուկ օրենքի» ձև և սովորաբար կամավոր է (մնացած բոլորը հավասար են): AI-ի մասին օրենքները դասակարգվում են որպես այսպես կոչված «կոշտ օրենքներ» և կամավոր կառուցվածք չեն (ընդհանուր առմամբ):

Սովորաբար ասում են, որ ընկերությունները նախընտրում են մեղմ օրենքները կոշտ օրենքների փոխարեն՝ տալով նրանց ավելի լայն լայնություն և ազատություն: Ոչ բոլորն են համաձայն այդ տրամադրության հետ։ Ոմանք ասում են, որ մեղմ օրենքները թույլ են տալիս ընկերություններին ազատվել անպատշաճ ջանքերից, և միակ ճանապարհը դրանք շտկելու համար կոշտ օրենքների ընդունումն է: Մյուսները նշում են, որ ֆիրմաները երբեմն նախընտրում են կոշտ օրենքներ, որոնք կարող են ապահովել ավելի հստակ խաղադաշտ: Կոշտ օրենքները կարող են ստիպել բոլոր խաղացողներին պահպանել նույն կանոնները: Փափուկ օրենքները թույլ են տալիս մի տեսակ ընտրություն կատարել՝ այդպիսով ստեղծելով շփոթություն և խաթարելով խաղադաշտը:

Ահա թե ինչպես է հետազոտությունը պատկերում արհեստական ​​ինտելեկտի էթիկայի լվացումը տեղի ունենալիք այս ավելի մեծ պատկերացումների ֆոնին. «Մի կողմից, տերմինն օգտագործվել է ընկերությունների կողմից որպես ընդունելի ֆասադ, որն արդարացնում է ապակարգավորումը, ինքնակարգավորումը կամ շուկայի վրա հիմնված կառավարումը, և ավելի ու ավելի է նույնացվում տեխնոլոգիական ընկերությունների կողմից էթիկական վարքագծի արտաքին տեսքի սեփական շահերից ելնելով: Մենք տեխնոլոգիական ընկերությունների կողմից էթիկական լեզվի նման աճող գործիքավորումն անվանում ենք «էթիկայի լվացում»: Արհեստական ​​ինտելեկտի էթիկայի խորհուրդներից բացի, էթիկայի լվացումը ներառում է էթիկական աշխատանքի արժեքը պարզեցնելու այլ փորձեր, որոնք հաճախ կազմում են կորպորատիվ հաղորդակցության ռազմավարության մի մասը. կենտրոնանալ մարդասիրական դիզայնի վրա, օրինակ՝ օգտատերերին ստիպել կրճատել հավելվածների վրա ծախսվող ժամանակը, այլ ոչ թե իրենց արտադրանքի գոյությանը բնորոշ ռիսկերը լուծելու համար. «արդար» մեքենայական ուսուցման համակարգերի վրա աշխատանքի ֆինանսավորումը, որը դրականորեն թաքցնում է հասարակության վրա այդ համակարգերի ավելի լայն ազդեցությունների շուրջ ավելի խորը հարցադրումները» (Elettra Bietti, «Ethics Washing to Ethics Bashing. A View on Tech Ethics from Within Moral Philosophy», Արդարության, հաշվետվողականության և թափանցիկության 2020 թվականի համաժողովի նյութեր).

Այս ծանրակշիռ քննարկման այս պահին ես գրազ կգամ, որ դուք ցանկանում եք որոշ պատկերավոր օրինակներ, որոնք կարող են ցուցադրել այս թեման: Կա հատուկ և վստահաբար սիրված օրինակների հավաքածու, որն ինձ հոգեհարազատ է: Տեսեք, որպես AI-ի փորձագետ, ներառյալ էթիկական և իրավական հետևանքները, ինձ հաճախ խնդրում են բացահայտել իրատեսական օրինակներ, որոնք ցույց են տալիս արհեստական ​​ինտելեկտի էթիկայի երկընտրանքները, որպեսզի թեմայի տեսական բնույթն ավելի հեշտությամբ ընկալվի: Ամենաոգեշնչող ոլորտներից մեկը, որը վառ կերպով ներկայացնում է այս էթիկական AI-ի խնդիրը, արհեստական ​​ինտելեկտի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելն է: Սա կծառայի որպես հարմար օգտագործման դեպք կամ օրինակ՝ թեմայի շուրջ լայն քննարկման համար:

Ահա մի ուշագրավ հարց, որի մասին արժե մտածել. Արդյո՞ք արհեստական ​​ինտելեկտի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելը որևէ բան լուսաբանում է AI-ի էթիկայի լվացման մասին, և եթե այո, ի՞նչ է սա ցույց տալիս:

Թույլ տվեք մի պահ բացել հարցը:

Նախ, նշեք, որ իրական ինքնակառավարվող մեքենայի մեջ մարդ վարորդ չկա: Հիշեք, որ իսկական ինքնակառավարվող մեքենաները վարում են AI վարորդական համակարգի միջոցով: Ղեկին մարդ վարորդի կարիք չկա, մեքենան վարելու համար մարդ չկա: Ինքնավար տրանսպորտային միջոցների (ԱՎ) և հատկապես ինքնակառավարվող մեքենաների իմ լայնածավալ և շարունակական լուսաբանման համար տե՛ս. հղումն այստեղ.

Ես կցանկանայի ավելի պարզաբանել, թե ինչ է նշանակում, երբ ես վերաբերում եմ իրական ինքնակառավարվող մեքենաներին:

Հասկանալով ինքնակառավարվող մեքենաների մակարդակները

Որպես պարզաբանում, իսկական ինքնակառավարվող մեքենաներն այն մեքենաներն են, որտեղ AI-ն ամբողջությամբ ինքնուրույն է վարում մեքենան, և վարորդական առաջադրանքի ընթացքում մարդկային օգնություն չի ցուցաբերվում:

Այս առանց վարորդի տրանսպորտային միջոցները համարվում են 4-րդ և 5-րդ մակարդակներ (տե՛ս իմ բացատրությունը այս հղումը Մականուն), մինչդեռ մեքենան, որը մարդկային վարորդից պահանջում է համատեղ ջանքեր գործադրել, սովորաբար դիտարկվում է 2-րդ կամ 3-րդ մակարդակում: Մեքենաները, որոնք համատեղ կատարում են վարորդական առաջադրանքը, նկարագրվում են որպես կիսաինքնավար և սովորաբար պարունակում են մի շարք մեքենաներ: ավտոմատացված հավելումներ, որոնք կոչվում են ADAS (Վարորդների օգնության առաջադեմ համակարգեր):

5-րդ մակարդակում դեռ իրական ինքնակառավարվող մեքենա չկա, և մենք դեռ չգիտենք, թե արդյոք դա հնարավոր կլինի հասնել, և որքան ժամանակ կպահանջվի այնտեղ հասնելու համար:

Միևնույն ժամանակ, 4-րդ մակարդակի ջանքերը աստիճանաբար փորձում են որոշակի ձգողականություն ձեռք բերել՝ անցնելով շատ նեղ և ընտրովի հանրային ճանապարհային փորձարկումներ, թեև հակասություններ կան այն հարցի շուրջ, թե արդյոք այս թեստավորումն ինքնին պետք է թույլատրվի (մենք բոլորս փորձի մեջ կյանքի կամ մահվան ծովախոզուկներ ենք: ոմանք պնդում են, որ տեղի է ունենում մեր մայրուղիներում և ճանապարհների վրա, տես իմ լուսաբանումը այս հղումը Մականուն).

Քանի որ կիսաավտոմեքենաները մարդկային վարորդ են պահանջում, այդպիսի մեքենաների ընդունումը չի տարբերվի սովորական տրանսպորտային միջոցներից վարվելուց, հետևաբար, այս թեմայի շուրջ դրանց մասին ծածկելու համար ամենևին էլ նոր բան չկա (չնայած, ինչպես կտեսնեք մի ակնթարթում ընդհանուր առմամբ կիրառվում են հաջորդ կետերը):

Կիսաանվտանգ ավտոմեքենաների համար կարևոր է, որ հասարակությունը պետք է նախազգուշացվի վերջին շրջանում ի հայտ եկած անհանգստացնող կողմի մասին, մասնավորապես այն, որ չնայած այն մարդկային վարորդներին, ովքեր շարունակում են փակցնել իրենց տեսահոլովակները իրենց մասին, քնում են «Level 2» կամ «Level 3» մեքենայի ղեկին: , մենք բոլորս պետք է խուսափենք ապակողմնորոշվելուց `հավատալով, որ վարորդը կարող է իրենց ուշադրությունը հանել վարորդական առաջադրանքից` կիսաավտոմեքենան վարելիս:

Դուք պատասխանատու կողմն եք տրանսպորտային միջոցի վարման գործողությունների համար, անկախ նրանից, թե որ ավտոմատացումը կարող է տեղափոխվել 2-րդ մակարդակի կամ 3-րդ մակարդակի:

Ինքնավար մեքենաներ և արհեստական ​​ինտելեկտի էթիկայի լվացում

4-րդ և 5-րդ մակարդակների իսկական ինքնագնաց տրանսպորտային միջոցների համար վարորդական գործին չի մասնակցի մարդկային վարորդ:

Բոլոր գրավյալները ուղևորներ են լինելու:

AI- ն վարում է վարումը:

Անմիջապես քննարկելու մի ասպեկտ ենթադրում է այն փաստը, որ այսօր AI- ի վարման համակարգերում ներգրավված AI- ն զգայուն չէ: Այլ կերպ ասած, AI- ն ընդհանուր առմամբ համակարգչային ծրագրավորման և ալգորիթմների հավաքածու է, և, անկասկած, ի վիճակի չէ տրամաբանել այնպես, ինչպես մարդիկ կարող են:

Ինչու՞ է այս հավելյալ շեշտադրումը արհեստական ​​ինտելեկտի մասին զգացմունքային չէ:

Քանի որ ես ուզում եմ ընդգծել, որ երբ քննարկում եմ AI շարժիչ համակարգի դերը, ես մարդկային որակներ չեմ վերագրում AI- ին: Խնդրում ենք տեղյակ լինել, որ այս օրերին շարունակական և վտանգավոր միտում կա AI- ն մարդաբանելու համար: Ըստ էության, մարդիկ մարդկային նման զգացողություն են հատկացնում այսօրվա AI- ին, չնայած անհերքելի և անառարկելի փաստին, որ այդպիսի AI դեռ գոյություն չունի:

Այդ պարզաբանմամբ դուք կարող եք պատկերացնել, որ AI վարելու համակարգը բնիկ ինչ-որ կերպ «չի իմանա» վարման կողմերի մասին: Վարորդությունն ու դրա հետևանքները պետք է ծրագրավորվեն որպես ինքնակառավարվող մեքենայի սարքավորումների և ծրագրակազմի մաս:

Եկեք սուզվենք այն անհամար ասպեկտների մեջ, որոնք սկսում են խաղալ այս թեմայի շուրջ:

Նախ, կարևոր է գիտակցել, որ ոչ բոլոր ինքնակառավարվող AI մեքենաները նույնն են: Յուրաքանչյուր ավտոարտադրող և ինքնակառավարվող տեխնոլոգիական ընկերություն իր մոտեցումն է ցուցաբերում ինքնակառավարվող մեքենաների ստեղծման հարցում: Որպես այդպիսին, դժվար է լայնածավալ հայտարարություններ անել այն մասին, թե ինչ կանեն կամ չեն անեն AI վարորդական համակարգերը:

Ավելին, ամեն անգամ, երբ նշվում է, որ արհեստական ​​ինտելեկտի կառավարման համակարգը որոշակի բան չի անում, դա հետագայում կարող է շրջանցվել այն մշակողների կողմից, որոնք իրականում ծրագրավորում են համակարգիչը հենց դա անելու համար: Քայլ առ քայլ, արհեստական ​​ինտելեկտի շարժիչ համակարգերը աստիճանաբար բարելավվում և ընդլայնվում են: Այսօր գոյություն ունեցող սահմանափակումն այլևս գոյություն չի ունենա համակարգի ապագա կրկնության կամ տարբերակի դեպքում:

Հուսով եմ, որ դա բավարար քանակությամբ զգուշացումներ է տալիս՝ հիմքում ընկնելու այն, ինչ ես պատրաստվում եմ պատմել:

Դուք գրեթե անկասկած տեսել եք վերնագրեր, որոնք հռչակում են համարձակ պնդումը, որ ինքնավար մեքենաներն այստեղ են, իսկ ինքնակառավարվող մեքենաներն արդեն կատարելագործված են: Ենթադրությունը սովորաբար կայանում է նրանում, որ ինքնավարության ասպեկտները լուծված են: Մենք ստացել ենք արհեստական ​​ինտելեկտ, որը նույնքան լավն է, որքան մարդկային վարորդները, հնարավոր է նույնիսկ ավելի լավ, քան մարդիկ:

Պարզապես այդ պղպջակը վստահաբար բաց թողնելու և ռեկորդը շտկելու համար դա դեռ այդպես չէ:

Մենք գիտենք, որ մարդ վարորդներն ԱՄՆ-ում տարեկան մոտ 2.5 միլիոն ավտովթարի են ենթարկվում, ինչը հանգեցնում է տարեկան ավելի քան 40,000 մահվան դեպքերի, տես իմ վիճակագրությունը՝ հղումն այստեղ. Թվացյալ ողջամիտ նմաններից որևէ մեկը կողջունի AI վարորդական համակարգերը, եթե նրանք կարողանան վարել նույնքան անվտանգ կամ ավելի ապահով, քան մարդկային վարորդները: Ավելին, հույս ունենք, որ մենք կունենանք շարժունակություն բոլորի համար՝ թույլ տալով նրանց, ովքեր այսօր սահմանափակ են շարժունակությամբ, ունենան արհեստական ​​ինտելեկտի վրա աշխատող տրանսպորտային միջոցներ, որոնք ապահովում են պատրաստի հասանելիություն հարմարավետ և էժան փոխադրումների համար:

Որոշ փորձագետներ ցնցող կերպով անցնում են «հավելյալ մղոն» և խայտառակ պնդում են անում, որ ինքնակառավարվող մեքենաները չեն կարող վթարվել: Սա բացարձակապես խելագար է և ամբողջովին սուտ: Դեռ ավելի վատ, դա աճեցված սպասումներ է, որոնք հնարավոր չէ իրականացնել: Եթե ​​դուք կարողանաք համոզել ժողովրդին, որ ինքնակառավարվող մեքենաներն անվթար են, նրանք կհնչեն ու կզզվեն այն պահից, երբ տեղի ունենա ինքնակառավարվող ավտոմեքենայի հետ կապված վթարի նույնիսկ մեկ դեպք: Իմ մանրամասն բացատրության համար, թե ինչու է անխորտակելի պահանջը անհեթեթ և արատավոր ծառայություն հասարակությանը, տես իմ լուսաբանումը այստեղ. հղումն այստեղ.

Այս բոլոր տեսակի չափազանցությունները կամ այլ կեղծիքները կարելի է ասել, որ ծածկված են AI-ի էթիկայի կանոններով, քանի որ եթե դուք պահպանում եք AI-ի էթիկայի սկզբունքները, չպետք է անեք այդ տեսակի վայրի և չհիմնավորված պնդումներ: Այսպիսով, այս խեղաթյուրումները և կեղծիքները հեշտությամբ ընդգրկվում են AI Ethics-ի լվացման ռուբիկայում:

Ինտելեկտուալ ինտելեկտի էթիկայի լվացումը, որը կապված է ինքնավար տրանսպորտային միջոցների և ինքնակառավարվող մեքենաների հետ, լայնորեն և կատաղիորեն առատ է, ցավոք սրտի: Ինտերնետում պատահական և առանց ճարմանդների որոնումը ձեզ ցույց կտա հազարավոր խելագար և չհիմնավորված պնդումներ ինքնավար մեքենաների վերաբերյալ: Սա չի սահմանափակվում միայն այն մարդկանցով, ովքեր իրենց բլոգներում են: Խոշոր լրատվական գործակալությունները զբաղված են դրանով: Խոշոր ընկերությունները զբաղված են դրանով: Ստարտափները բռնվում են դրանով: Վենչուրային կապիտալի ընկերությունները հայտնվել են դրանով: Բաժնետերերը բռնվում են այս ամենի մեջ: Եվ այսպես շարունակ։

Ես կասեի մռայլ բարձր վստահությամբ, որ այս կոնկրետ տիրույթում AI էթիկայի լվացումը լայն տարածում ունի:

AI-ի էթիկայի լվացման մասին խոսքի մասնագիտացված տարբերակ, որը ենթադրում է ինքնավարություն և ինքնավար համակարգեր, ինքնավար լվացման հասկացությունն է: Ահա հեղինակ Լիզա Դիքսոնը պատկերում է սա. «Ավտոմատացման համար հարմարեցված ինքնալվացումը սահմանվում է որպես չստուգված կամ ապակողմնորոշող պնդումներ ներկայացնելու պրակտիկա, որոնք խեղաթյուրում են մարդկային վերահսկողության համապատասխան մակարդակը, որը պահանջվում է մասնակի կամ կիսաինքնավար արտադրանքի, ծառայության կամ տեխնոլոգիայի կողմից: Autonowashing-ը կարող է տարածվել նաև լիովին ինքնավար համակարգերի վրա, այն դեպքերում, երբ համակարգի հնարավորությունները չափազանցված են, քան այն, ինչ հնարավոր է հուսալիորեն կատարել բոլոր պայմաններում: Autonowashing-ը ստիպում է ինչ-որ բան ավելի ինքնավար թվալ, քան իրականում կա: Autonowashing-ի նպատակն է տարբերակել և/կամ մրցակցային առավելություն առաջարկել կազմակերպությանը՝ մակերեսային բառապաշարի կիրառման միջոցով, որը նպատակ ունի փոխանցել համակարգի հուսալիության մակարդակը, որը անհամապատասխան է համակարգի տեխնիկական հնարավորություններին: Ավտոմատ լվացումը կարող է տեղի ունենալ նաև ակամա, երբ մեկը անգիտակցաբար կրկնում է ավտոմատացված համակարգի հնարավորությունների մասին սխալ տեղեկությունը մյուսին: Autonowashing-ը ապատեղեկատվության ձև է, և այն ինչ-որ իմաստով վիրուսային է» (Տրանսպորտային հետազոտությունների միջդիսցիպլինար հեռանկար, «Autonwashing. The Greenwashing of Vehicle Automation», 2020):

Որպես իմ ավելի վաղ ցուցմունքի հիշեցում, կան AI Էթիկայի լվացման չորս հիմնական տարբերակներ, որոնք ես սովորաբար տեսնում եմ, և դրանք հեշտությամբ կարելի է գտնել նաև ինքնավար մեքենաների ոլորտում.

  • AI էթիկայի լվացող մեքենաներ, որոնք չգիտեն, որ կանԱրհեստական ​​ինտելեկտի էթիկա՝ անտեղյակության կամ անգրագիտության պատճառով AI և/կամ AI էթիկա ինքնավար մեքենաներում
  • AI-ի էթիկայի լվացող սարքերը, որոնք ընկնում են դրա մեջ. AI Ethics-ը լվացվում է պատահական սայթաքմամբ, թեև այլ կերպ իրական է AI էթիկայի և AI-ի մասին ինքնավար մեքենաներում
  • AI էթիկայի լվացող մեքենաներ, որոնք բարակ ձգվում են. Արհեստական ​​ինտելեկտի էթիկա, որը լվացվում է նպատակաուղղված մտադրությամբ, թեև պարզապես սրիկայով և երբեմն գրեթե ներելի է (կամ ոչ) ինքնավար մեքենաներում
  • AI-ի էթիկայի լվացող մեքենաները, որոնք գիտեն և լկտիաբար վաճառում են այն. Ինտելեկտուալ ինտելեկտի էթիկա՝ ինքնավար մեքենաներում ամբողջությամբ և նենգ և հաճախ աղաղակող դիզայնով

Բացի այդ, դուք հեշտությամբ կարող եք տեսնել AI-ի էթիկայի լվացման այլ տեսակների և հարակից լվացման հիվանդությունների դեպքեր ինքնավարության ոլորտում, ներառյալ.

  • AI Էթիկայի թատրոն ինքնավար մեքենաներում և ինքնակառավարվող մեքենաներում
  • AI Ethics գնումներ ինքնավար մեքենաներում և ինքնակառավարվող մեքենաներում
  • AI Էթիկայի հարված ինքնավար մեքենաներում և ինքնակառավարվող մեքենաներում
  • AI Էթիկայի պաշտպանություն ինքնավար մեքենաներում և ինքնակառավարվող մեքենաներում
  • AI Ethics Fairwashing ինքնավար մեքենաներում և ինքնակառավարվող մեքենաներում

Եզրափակում

AI Ethics-ի լվացումը մեր շուրջն է: Մենք լողանում ենք դրա մեջ:

Հուսով եմ, որ ձեր ուշադրությունը հրավիրելով այս լուրջ և անվերջ թվացող հարցի վրա՝ դուք կկարողանաք հասկանալ, թե երբ եք լվացվում AI-ի Էթիկան: Դա կարող է դժվար լինել պարզել: Նրանք, ովքեր AI Ethics-ի լվացում են անում, կարող են լինել չափազանց խելացի և խորամանկ:

Հնարքներից մեկը լվացքի մեջ մի քիչ ճշմարտություն խառնելն է, որը խառնվում է կեղծիքի կամ չափազանցությունների հետ: Քանի որ դուք կարող եք հեշտությամբ հայտնաբերել և համաձայնվել ճշմարտացիության հետ, դուք կարող եք ներքաշվել՝ հավատալու, որ մյուս անճշմարիտ կամ խաբուսիկ մասը նույնպես ճշմարիտ է: Խաբեության սրամիտ և տհաճ ձև:

Եկեք դա կոչենք խոզի լվացում:

Կարո՞ղ ենք արդյոք լվանալ նրանց բերանները, ովքեր ուղղակիորեն կատարում են AI-ի էթիկայի լվացում:

Կներեք հայտնում, որ դա այնքան էլ հեշտ չի արվում, որքան կարելի է ցանկանալ: Դա ասվում է, որ միայն այն պատճառով, որ AI Ethics-ի լվացումը բռնելն ու կոչ անելը կարող է դժվար լինել և երբեմն նման է Սիզիփոսի ծանր քարը բլրի վրա հրելով, մենք պետք է փորձենք:

Եթե ​​դուք չգիտեիք, Զևսը նրան հանձնարարել էր անել այս քարը, որը մղում էր հավերժության, և հսկայական ժայռը ընդմիշտ հետ կգլորվի, երբ ջանքերը հասնեն գագաթին: Կարծում եմ, որ մենք բախվում ենք նույն անախորժություններին, երբ խոսքը վերաբերում է AI-ի էթիկայի լվացմանը:

Միշտ կլինի ավելի շատ AI Ethics լվացում, որը պետք է լվացվի: Դա անկասկած երաշխիք է, առանց որևէ ցնծության:

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/06/09/ai-ethics-and-legal-ai-are-flustered-by-deceptive-pretenses-known-as-ai-ethics- լվացում-որոնք-կեղծ-էթիկական-այդ-այդ թվում-ինքնավար-մեքենաներ վարելու-պնդելու-պնդումներ/