AI-ի էթիկան և AI օրենքը, որը պարզաբանում է, թե իրականում ինչն է վստահելի AI-ն

Վստահությունն ամեն ինչ է, ասում են.

Նշանավոր փիլիսոփա Լաո Ցզին ասել է, որ նրանց, ովքեր բավականաչափ չեն վստահում, չեն վստահվի։ Հարգարժան արձակագիր Էռնեստ Հեմինգուեյը նշել է, որ լավագույն միջոցը պարզելու, թե արդյոք կարող եք վստահել ինչ-որ մեկին, վստահելն է նրան:

Մինչդեռ, թվում է, թե վստահությունը և՛ թանկ է, և՛ փխրուն։ Վստահությունը, որն ունի մեկը, կարող է փլվել, ինչպես թղթախաղը կամ հանկարծ պայթել, ինչպես թռչած փուչիկը:

Հին հույն ողբերգակ Սոֆոկլեսը պնդում էր, որ վստահությունը մեռնում է, բայց անվստահությունը ծաղկում է։ Ֆրանսիացի փիլիսոփա և մաթեմատիկոս Դեկարտը պնդում էր, որ խելամիտ է երբեք ամբողջովին չվստահել նրանց, ովքեր մեզ նույնիսկ մեկ անգամ խաբել են: Միլիարդատեր բիզնես ներդրող, արտասովոր Ուորեն Բաֆեթը հորդորեց, որ քսան տարի է պահանջվում վստահելի համբավ ստեղծելու համար և հինգ րոպե՝ այն փչացնելու համար:

Դուք կարող եք զարմանալ, երբ իմանաք, որ վստահության վերաբերյալ այս բոլոր բազմազան տեսակետներն ու սադրիչ կարծիքները կարևոր նշանակություն ունեն Արհեստական ​​ինտելեկտի (AI) ի հայտ գալու համար:

Այո, կա մի բան, որը խորապես կոչվում է վստահելի AI որը շարունակում է մեծ ուշադրության արժանանալ այս օրերին, ներառյալ AI-ի ոլորտից կատվի ձայները, ինչպես նաև AI-ի ոլորտից դուրս գտնվողների բուռն պոռթկումները: Ընդհանուր հասկացությունը ենթադրում է, թե արդյոք հասարակությունը պատրաստ կլինի վստահել արհեստական ​​ինտելեկտի համակարգերին, թե ոչ:

Ենթադրաբար, եթե հասարակությունը չվստահի արհեստական ​​ինտելեկտին կամ չի կարող վստահել արհեստական ​​ինտելեկտին, հավանականությունն այն է, որ արհեստական ​​ինտելեկտի համակարգերը չկարողանան գրավչություն ձեռք բերել: AI-ն, ինչպես մենք գիտենք, այն ներկայումս մի կողմ կմղվի և պարզապես փոշի կհավաքի: Ցնցող է, որ AI-ն կարող է հայտնվել անպիտան կույտի մեջ, որը պատմականորեն դասվել է ոչ այլ ինչի, քան հուսահատ փորձված, բայց տպավորիչ ձախողված բարձր տեխնոլոգիական փորձի: Արհեստական ​​ինտելեկտը աշխուժացնելու ցանկացած ջանք կարող է բախվել ահռելի դժվարին ճակատամարտի և կասեցնելու բոլոր տեսակի առարկություններով և բացահայտ բողոքներով: Ըստ երևույթին, արհեստական ​​ինտելեկտի նկատմամբ վստահության բացակայության պատճառով:

Ո՞րը կլինի՝ մենք վստահե՞լ AI-ին, թե՞ չենք վստահել AI-ին:

Ըստ էության, մենք իսկապես կունենա՞նք վստահելի AI:

Դրանք հնացած և չլուծված հարցեր են։ Եկեք բացենք այն:

AI էթիկան և պայքարը վստահելի AI-ի համար

Արհեստական ​​ինտելեկտի ներսում շատերի համոզմունքն այն է, որ AI համակարգերի մշակողները կարող են վստահություն ձեռք բերել արհեստական ​​ինտելեկտի նկատմամբ՝ պատշաճ կերպով մշակելով AI, որը վստահելի է: Էությունը կայանում է նրանում, որ դուք չեք կարող հույս ունենալ վստահություն ձեռք բերելու համար, եթե AI-ն առաջին հայացքից վստահելի չէ: Արհեստական ​​ինտելեկտի համակարգերը ստեղծելով այնպես, որ ընկալվի որպես վստահելի, մեծ հավանականություն կա, որ մարդիկ ընդունեն AI-ն և կիրառեն AI-ի օգտագործումը:

Վստահելի արհեստական ​​ինտելեկտի այս նկատառման հետ կապված արդեն իսկ անհանգստություն պատճառող մի անհանգստություն այն է, որ մենք կարող ենք արդեն հայտնվել Ա հանրային վստահության դեֆիցիտ երբ խոսքը AI-ի մասին է: Կարելի է ասել, որ արհեստական ​​ինտելեկտը, որը մենք արդեն տեսել ենք, փոս է փորել և հսկայական քանակությամբ վստահությունը շպրտել: Այսպիսով, վստահության ինչ-որ բավարար հիմքից սկսելու փոխարեն, AI-ն ստիպված կլինի ապշեցուցիչ կերպով դուրս գալ դեֆիցիտից՝ ճանկելով հավելյալ վստահության յուրաքանչյուր ցանկալի ունցիա, որը անհրաժեշտ կլինի մարդկանց համոզելու, որ AI-ն իրականում վստահելի է:

Այս մարտահրավերի մեջ է մտնում AI էթիկան և AI օրենքը:

AI-ի էթիկան և արհեստական ​​ինտելեկտի իրավունքը մեծ դժվարությամբ են փորձում պարզել, թե ինչ է անհրաժեշտ AI-ն վստահելի դարձնելու համար: Ոմանք ենթադրում են, որ կա բանաձև կամ երկաթյա օրենքներ, որոնք AI-ն կհասցնեն վստահելի դրախտ: Մյուսները նշում են, որ կպահանջվի քրտնաջան աշխատանք և արհեստական ​​ինտելեկտի էթիկայի և արհեստական ​​ինտելեկտի իրավունքի սկզբունքներին հետևողական և անողոք հավատարմություն՝ հասարակության գովելի վստահությունը ստանալու համար:

Արհեստական ​​ինտելեկտի նկատմամբ վստահության մասին ժամանակակից հանելուկն ինքնին առանձնապես նոր չէ:

Դուք հեշտությամբ կարող եք վերադառնալ 1990-ականների վերջ և հետևել այդ օրերից «վստահելի հաշվողականության» ձգտված ցանկության առաջացմանը: Սա տեխնոլոգիական արդյունաբերության լայնածավալ փորձ էր՝ պարզելու, թե արդյոք համակարգիչները կարող են պատրաստվել այնպես, որ հասարակությունը համարվի վստահելի:

Հիմնական հարցերը բաղկացած էին.

  • Հնարավո՞ր է արդյոք համակարգչային սարքավորումն այնպես պատրաստել, որ վստահելի լինի:
  • Հնարավո՞ր է արդյոք ծրագրակազմը մշակվել այնպես, որ վստահելի լինի:
  • Կարո՞ղ ենք արդյոք տեղադրել գլոբալ ցանցային համակարգիչներ, որոնք վստահելի կլինեն:
  • Եվ այսպես շարունակ:

Այն ժամանակ գերակշռող տրամադրությունը, որը շարունակվում է մինչ օրս, այն է, որ վստահելի հաշվիչը մնում է սուրբ գրալի մի տեսակ, որը, ցավոք սրտի, դեռևս այնքան էլ հասանելի չէ (ինչպես նշված է «Վստահելի AI» վերնագրված հոդվածում: ACM-ի հաղորդակցությունները) Դուք կարող եք համոզիչ կերպով պնդել, որ AI-ն հաշվողական վստահելիության շրջանակի ևս մեկ բաղադրիչ է, սակայն AI-ն վստահության հետապնդումը դարձնում է ավելի դժվար և անորոշ: AI-ն դարձել է պոտենցիալ փչացնողը վստահելի հաշվարկներ ձեռք բերելու պայքարում: Հնարավոր է, շղթայի ամենաթույլ օղակը, ասես,:

Եկեք արագ նայենք, թե ինչու է արհեստական ​​ինտելեկտը խելագարվել, քան վստահելի լինելը: Բացի այդ, մենք կուսումնասիրենք AI-ի էթիկայի դրույթները, որոնք, հուսով ենք, կնպաստեն այսօրվա AI-ի արդեն իսկ կիսաստորջրյա ընկալվող վստահությանը (կամ փրփրացող անվստահությանը): AI-ի էթիկայի իմ շարունակական և ընդարձակ լուսաբանման համար տե՛ս հղումն այստեղ և հղումն այստեղ, պարզապես մի քանի անուն:

Արհեստական ​​ինտելեկտի էթիկայի որոշակի հատված կամ մի հատված, որը արժանացել է ԶԼՄ-ների մեծ ուշադրությանը, բաղկացած է AI-ից, որը ցուցադրում է անբարենպաստ կողմնակալություններ և անհավասարություններ: Դուք կարող եք տեղյակ լինել, որ երբ սկսվեց AI-ի վերջին դարաշրջանը, խանդավառության մեծ պոռթկում էր այն, ինչ այժմ ոմանք անվանում են: AI For Good. Ցավոք սրտի, այդ բուռն հուզմունքից հետո մենք սկսեցինք ականատես լինել AI For Bad. Օրինակ, AI-ի վրա հիմնված դեմքի ճանաչման տարբեր համակարգեր բացահայտվել են որպես ռասայական և գենդերային կողմնակալություններ պարունակող, որոնք ես քննարկել եմ հղումն այստեղ.

Դեմ պայքարելու ջանքերը AI For Bad ակտիվորեն ընթանում են։ Բացի աղմկոտ իրավական Սխալ արարքները զսպելու ձգտումները, կա նաև զգալի մղում դեպի AI էթիկան ընդունելու՝ AI-ի ստորությունը շտկելու համար: Հասկացությունը կայանում է նրանում, որ մենք պետք է ընդունենք և հաստատենք Արհեստական ​​ինտելեկտի էթիկական հիմնական սկզբունքները Արհեստական ​​ինտելեկտի զարգացման և ներդրման համար՝ դա անելով նվազեցնելու համար AI For Bad և միաժամանակ ազդարարելով և խթանելով նախընտրելիը AI For Good.

Համապատասխան հասկացության համաձայն՝ ես AI-ն օգտագործելու ջատագովն եմ՝ որպես արհեստական ​​ինտելեկտի դժբախտությունների լուծման մաս՝ կրակը կրակի հետ պայքարելով այդ մտածելակերպով: Օրինակ՝ մենք կարող ենք ներդնել Արհեստական ​​ինտելեկտի էթիկական բաղադրիչները արհեստական ​​ինտելեկտի համակարգում, որը կհետևի, թե ինչպես է AI-ի մնացած անդամներն անում բաներ և այդպիսով իրական ժամանակում պոտենցիալ կերպով կբռնեն ցանկացած խտրական ջանք, տես իմ քննարկումը. հղումն այստեղ. Մենք կարող ենք նաև ունենալ AI-ի առանձին համակարգ, որը հանդես է գալիս որպես AI Էթիկայի մոնիտոր: Արհեստական ​​ինտելեկտի համակարգը ծառայում է որպես վերահսկիչ՝ հետևելու և հայտնաբերելու, թե երբ է մեկ այլ AI գնում ոչ էթիկական անդունդ (տե՛ս նման հնարավորությունների իմ վերլուծությունը այստեղ՝ հղումն այստեղ).

Քիչ անց ես ձեզ հետ կկիսվեմ AI-ի էթիկայի հիմքում ընկած մի քանի հիմնական սկզբունքներով: Այս տեսակի ցուցակները շատ են լողում այս ու այն կողմ: Կարելի է ասել, որ դեռևս չկա համընդհանուր բողոքարկման և համաձայնության եզակի ցուցակ: Սա ցավալի լուր է: Լավ նորությունն այն է, որ գոնե կան AI-ի էթիկայի մատչելի ցուցակներ, և դրանք հակված են միանգամայն նման լինել: Ընդհանուր առմամբ, սա ենթադրում է, որ մի տեսակ հիմնավորված մերձեցման միջոցով մենք գտնում ենք մեր ճանապարհը դեպի ընդհանուր ընդհանրություն, թե ինչից է բաղկացած AI էթիկան:

Նախ, եկեք համառոտ անդրադառնանք էթիկական արհեստական ​​ինտելեկտի ընդհանուր կանոններից մի քանիսին, որպեսզի ցույց տանք, թե ինչ պետք է լինի կենսական նշանակություն ունեցող ցանկացած մարդու համար, ով արհեստագործում է, զբաղվում կամ օգտագործում է AI:

Օրինակ, ինչպես նշվում է Վատիկանի կողմից Հռոմը AI-ի էթիկայի կոչ է անում և քանի որ ես խորությամբ անդրադարձել եմ հղումն այստեղ, սրանք են նրանց բացահայտված AI-ի էթիկայի վեց հիմնական սկզբունքները.

  • Թափանցիկություն. Սկզբունքորեն, AI համակարգերը պետք է բացատրելի լինեն
  • Ներառումը. Պետք է հաշվի առնել բոլոր մարդկանց կարիքները, որպեսզի բոլորը կարողանան օգուտ քաղել, և բոլոր անհատներին առաջարկել լավագույն պայմաններն ինքնադրսևորվելու և զարգանալու համար։
  • Պատասխանատվություն ` Նրանք, ովքեր նախագծում և կիրառում են AI-ի օգտագործումը, պետք է գործեն պատասխանատվությամբ և թափանցիկությամբ
  • Անաչառություն. Մի ստեղծեք կամ մի գործեք ըստ կողմնակալության՝ դրանով իսկ պաշտպանելով արդարությունն ու մարդկային արժանապատվությունը
  • հուսալիություն: AI համակարգերը պետք է կարողանան հուսալիորեն աշխատել
  • Անվտանգություն և գաղտնիություն. AI համակարգերը պետք է ապահով աշխատեն և հարգեն օգտատերերի գաղտնիությունը:

Ինչպես նշված է ԱՄՆ պաշտպանության նախարարության (DoD) կողմից իրենց Արհեստական ​​ինտելեկտի օգտագործման էթիկական սկզբունքներ և քանի որ ես խորությամբ անդրադարձել եմ հղումն այստեղ, սրանք են AI-ի նրանց վեց հիմնական էթիկայի սկզբունքները.

  • Պատասխանատու: DoD անձնակազմը կկիրառի դատողության և խնամքի համապատասխան մակարդակներ՝ միաժամանակ պատասխանատու մնալով AI կարողությունների զարգացման, տեղակայման և օգտագործման համար:
  • Արդար: Դեպարտամենտը կանխամտածված քայլեր կձեռնարկի՝ նվազագույնի հասցնելու AI կարողությունների մեջ չնախատեսված կողմնակալությունը:
  • Հետագծելի: Դեպարտամենտի AI կարողությունները կզարգացվեն և կտեղակայվեն այնպես, որ համապատասխան անձնակազմը համապատասխան պատկերացում ունենա տեխնոլոգիայի, զարգացման գործընթացների և գործառնական մեթոդների մասին, որոնք կիրառելի են AI կարողությունների համար, ներառյալ թափանցիկ և աուդիտի ենթարկվող մեթոդաբանությունները, տվյալների աղբյուրները և նախագծման ընթացակարգն ու փաստաթղթերը:
  • Վստահելի: Դեպարտամենտի արհեստական ​​ինտելեկտի հնարավորությունները կունենան հստակ, հստակորեն սահմանված կիրառումներ, և նման հնարավորությունների անվտանգությունը, անվտանգությունը և արդյունավետությունը ենթակա կլինեն փորձարկման և հավաստիացման՝ սահմանված օգտագործման շրջանակում դրանց ողջ կյանքի ընթացքում:
  • Կառավարվող. Դեպարտամենտը նախագծելու և նախագծելու է AI-ի հնարավորությունները՝ իրականացնելու իրենց նախատեսված գործառույթները՝ միաժամանակ ունենալով անցանկալի հետևանքները հայտնաբերելու և խուսափելու, ինչպես նաև չնախատեսված վարք դրսևորող տեղակայված համակարգերը անջատելու կամ անջատելու կարողություն:

Ես նաև քննարկել եմ AI էթիկայի սկզբունքների տարբեր կոլեկտիվ վերլուծություններ, ներառյալ հետազոտողների կողմից մշակված մի շարք, որոնք ուսումնասիրել և խտացրել են բազմաթիվ ազգային և միջազգային AI էթիկայի դրույթների էությունը «Արհեստական ​​ինտելեկտի էթիկայի գլոբալ լանդշաֆտը» վերնագրով հոդվածում (հրատարակված): մեջ բնություն), և որ իմ լուսաբանումն ուսումնասիրում է հղումն այստեղ, որը հանգեցրեց այս հիմնական ցուցակին.

  • Թափանցիկություն
  • Արդարություն և արդարություն
  • Ոչ չարամտություն
  • պատասխանատվություն
  • Գաղտնիության
  • Բարեգործություն
  • Ազատություն և ինքնավարություն
  • Վստահեք
  • Կայունություն
  • Արժանապատվություն
  • Համերաշխություն

Ինչպես կարող եք ուղղակիորեն կռահել, այս սկզբունքների հիմքում ընկած առանձնահատկությունները պարզելու փորձը կարող է չափազանց դժվար լինել: Առավել եւս, որ այդ լայն սկզբունքները լիովին շոշափելի և բավականաչափ մանրամասն ինչ-որ բանի վերածելու ջանքերը, որոնք կարող են օգտագործվել արհեստական ​​ինտելեկտի համակարգեր ստեղծելու ժամանակ, նույնպես դժվար է կոտրել: Հեշտ է ընդհանուր առմամբ ձեռքով պարզել, թե ինչ են AI-ի էթիկայի կանոնները և ինչպես պետք է դրանք ընդհանուր առմամբ պահպանվեն, մինչդեռ AI կոդավորման մեջ շատ ավելի բարդ իրավիճակ է, որը պետք է լինի իրական ռետինը, որը համապատասխանում է ճանապարհին:

AI-ի էթիկայի սկզբունքները պետք է օգտագործվեն արհեստական ​​ինտելեկտի մշակողների կողմից, ինչպես նաև նրանք, ովքեր ղեկավարում են AI-ի զարգացման ջանքերը, և նույնիսկ նրանք, ովքեր, ի վերջո, կիրառում և պահպանում են AI համակարգերը: Բոլոր շահագրգիռ կողմերը AI-ի զարգացման և օգտագործման ողջ ցիկլի ընթացքում համարվում են Էթիկական AI-ի հաստատված նորմերին պահպանելու շրջանակում: Սա կարևոր կետ է, քանի որ սովորական ենթադրությունն այն է, որ «միայն կոդավորողները» կամ նրանք, ովքեր ծրագրավորում են AI-ն, ենթակա են հավատարիմ մնալու AI-ի էթիկայի հասկացություններին: Ինչպես արդեն նշվեց, AI-ի մշակման և դաշտի մշակման համար անհրաժեշտ է գյուղ, և որի համար ամբողջ գյուղը պետք է տիրապետի և պահպանի AI-ի էթիկայի կանոնները:

Եկեք նաև համոզվենք, որ մենք նույն էջում ենք այսօրվա AI-ի բնույթի վերաբերյալ:

Այսօր չկա որևէ AI, որը զգայուն է: Մենք սա չունենք: Մենք չգիտենք, թե արդյոք հնարավո՞ր է խելացի AI-ն: Ոչ ոք չի կարող տեղին կանխագուշակել, թե արդյոք մենք կհասնենք խելամիտ AI-ին, և ոչ էլ արդյոք զգայական AI-ն ինչ-որ կերպ հրաշքով ինքնաբերաբար կառաջանա հաշվողական ճանաչողական գերնոր աստղի տեսքով (սովորաբար կոչվում է եզակիություն, տե՛ս իմ լուսաբանումը այստեղ. հղումն այստեղ).

AI-ի տեսակը, որի վրա ես կենտրոնանում եմ, բաղկացած է ոչ զգայուն AI-ից, որն այսօր ունենք: Եթե ​​ուզենայինք կատաղի ենթադրություններ անել զգայուն AI, այս քննարկումը կարող է գնալ արմատապես այլ ուղղությամբ: Զգացող AI-ն ենթադրաբար մարդկային որակի կլիներ: Պետք է հաշվի առնել, որ զգայուն AI-ն մարդու ճանաչողական համարժեքն է: Ավելին, քանի որ ոմանք ենթադրում են, որ մենք կարող ենք ունենալ սուպեր-խելացի AI, կարելի է պատկերացնել, որ այդպիսի AI-ն կարող է ավելի խելացի լինել, քան մարդիկ (սուպեր-խելացի AI-ի իմ հետազոտության համար, տես. լուսաբանումն այստեղ).

Եկեք ամեն ինչ ավելի պարզ պահենք և հաշվի առնենք այսօրվա հաշվողական ոչ զգայուն AI-ն:

Գիտակցեք, որ այսօրվա AI-ն ի վիճակի չէ «մտածել» մարդկային մտածողությանը հավասար: Երբ դուք շփվում եք Alexa-ի կամ Siri-ի հետ, խոսակցական կարողությունները կարող են նման լինել մարդկային կարողություններին, բայց իրականությունն այն է, որ այն հաշվողական է և չունի մարդկային ճանաչողություն: AI-ի վերջին դարաշրջանը լայնորեն օգտագործել է մեքենայական ուսուցում (ML) և Deep Learning (DL), որոնք օգտագործում են հաշվողական օրինաչափությունների համընկնումը: Սա հանգեցրել է արհեստական ​​ինտելեկտի համակարգերի, որոնք ունեն մարդու նման հակումների տեսք: Միևնույն ժամանակ, այսօր չկա որևէ արհեստական ​​բանականություն, որն ունի ողջամտության նմանություն և ոչ էլ ունի ուժեղ մարդկային մտածողության ճանաչողական հրաշք:

ML/DL-ը հաշվողական օրինաչափությունների համապատասխանության ձև է: Սովորական մոտեցումն այն է, որ դուք հավաքում եք տվյալներ որոշումներ կայացնելու առաջադրանքի վերաբերյալ: Դուք սնուցում եք տվյալները ML/DL համակարգչային մոդելների մեջ: Այդ մոդելները ձգտում են գտնել մաթեմատիկական օրինաչափություններ: Այդպիսի օրինաչափություններ գտնելուց հետո, եթե գտնվեն, ապա արհեստական ​​ինտելեկտի համակարգը կօգտագործի այդ օրինաչափությունները նոր տվյալների հանդիպելիս: Նոր տվյալների ներկայացումից հետո «հին» կամ պատմական տվյալների վրա հիմնված օրինաչափությունները կիրառվում են ընթացիկ որոշում կայացնելու համար:

Կարծում եմ, դուք կարող եք կռահել, թե ուր է սա գնում: Եթե ​​մարդիկ, ովքեր որոշումներ են կայացնում, իրենց մեջ ներդնում են անբարենպաստ կողմնակալություն, ապա հավանականությունն այն է, որ տվյալներն արտացոլում են դա նուրբ, բայց նշանակալի ձևերով: Մեքենայի ուսուցումը կամ խորը ուսուցման հաշվողական օրինաչափությունների համընկնումը պարզապես կփորձի համապատասխանաբար մաթեմատիկորեն նմանակել տվյալները: Առողջ դատողության կամ AI-ի կողմից ստեղծված մոդելավորման այլ զգալի ասպեկտներ ինքնին չկա:

Ավելին, AI մշակողները նույնպես կարող են չհասկանալ, թե ինչ է կատարվում: ML/DL-ի գաղտնի մաթեմատիկան կարող է դժվարացնել այժմ թաքնված կողմնակալությունների բացահայտումը: Դուք իրավամբ հույս կունենաք և ակնկալում եք, որ AI մշակողները կփորձարկեն պոտենցիալ թաղված կողմնակալության համար, թեև դա ավելի բարդ է, քան կարող է թվալ: Մեծ հավանականություն կա, որ նույնիսկ համեմատաբար լայնածավալ փորձարկումների դեպքում, ML/DL-ի օրինաչափությունների համապատասխանող մոդելներում դեռևս առկա կլինեն կողմնակալություններ:

Դուք կարող եք ինչ-որ չափով օգտագործել աղբի մեջ աղբի դուրս գալու հայտնի կամ տխրահռչակ ասացվածքը: Բանն այն է, որ սա ավելի շատ նման է կողմնակալություններին, որոնք նենգորեն ներարկվում են որպես AI-ի մեջ ընկղմված կողմնակալություններ: AI-ի որոշումների կայացման ալգորիթմը (ADM) աքսիոմատիկորեն ծանրաբեռնված է անհավասարություններով:

Ոչ լավ.

Եկեք սա կապենք վստահելի AI-ի մասին հարցին

Մենք, անշուշտ, կարծես թե պատրաստ չենք վստահել AI-ին, որը ցուցադրում է բացասական կողմնակալություն և խտրական գործողություններ: Մեր համոզմունքը, այդ դեպքում, կլինի, որ նման AI-ն վստահելի չէ, ուստի մենք կհակվենք դեպի AI-ի նկատմամբ ակտիվ անվստահություն: Առանց մարդաբանական համեմատության չափն անցնելու (մի պահ ավելին կասեմ արհեստական ​​ինտելեկտի մարդակերպության մասին), այն մարդը, ով դրսևորում է անբարենպաստ կողմնակալություն, նույնպես ենթակա կլինի գնահատման որպես առանձնապես վստահելի չլինելու:

Վստահության և վստահելիության խորացում

Միգուցե մենք պետք է նայենք, թե ինչ նկատի ունենք, երբ պնդում ենք, որ վստահում ենք կամ չենք վստահում ինչ-որ մեկին կամ ինչ-որ բանի: Նախ, հաշվի առեք վստահության մի քանի ամենօրյա բառարանային սահմանումներ:

Օրինակներ, թե ինչ է նշանակում վստահությունը.

  • Ապահովված վստահություն ինչ-որ մեկի կամ ինչ-որ բանի բնավորության, կարողության, ուժի կամ ճշմարտության վրա (Merriam-Webster առցանց բառարան):
  • Ապավինել անձի կամ իրի ամբողջականությանը, ուժին, կարողությանը, երաշխավորությանը և այլն (Dictionary.com)
  • Ինչ-որ մեկի կամ ինչ-որ բանի հուսալիության, ճշմարտության, կարողության կամ ուժի նկատմամբ հաստատուն հավատ (Օքսֆորդի լեզուների առցանց բառարան):

Ես կցանկանայի նշել, որ այդ բոլոր սահմանումները վերաբերում են «ինչ-որ մեկին», ինչպես նաև վերաբերում են «ինչ-որ բանին» որպես պոտենցիալ վստահելի: Սա հատկանշական է, քանի որ ոմանք կարող են պնդել, որ մենք վստահում ենք միայն մարդկանց, և որ վստահության ակտը վերապահված է բացառապես մարդկությանը որպես վստահելիության մեր թիրախ: Այդպես չէ։ Դուք կարող եք վստահել ձեր խոհանոցի տոստերին: Եթե ​​թվում է, որ այն հուսալիորեն պատրաստում է ձեր կենացը և սովորաբար աշխատում է դա անել, դուք, անշուշտ, կարող եք վստահության տեսք ունենալ այն մասին, թե իրականում վստահելի է տոստերը:

Այդ նույն մտածողության գծում AI-ն կարող է նաև լինել մեր վստահության տեսակետի առարկան: Հավանականությունն այն է, որ արհեստական ​​ինտելեկտի հետ կապված վստահությունը շատ ավելի բարդ է լինելու, քան ասենք սովորական հացի հացը: Տոստերը սովորաբար կարող է անել միայն մի քանի գործողություններ: AI համակարգը, ամենայն հավանականությամբ, շատ ավելի բարդ է և թվում է, որ ավելի քիչ թափանցիկ է գործում: Արհեստական ​​ինտելեկտի վստահելիությունը գնահատելու և պարզելու մեր կարողությունը, անշուշտ, շատ ավելի դժվար կլինի և կառաջարկի հստակ մարտահրավերներ:

Պարզապես ավելի բարդ լինելուց բացի, տիպիկ AI համակարգը համարվում է ոչ դետերմինիստական ​​և պոտենցիալ ինքնակարգավորվող կամ ինքնակարգավորվող: Մենք կարող ենք համառոտ ուսումնասիրել այդ հասկացությունը:

Դետերմինիստական ​​մեքենան հակված է նույն բաներն անելու նորից ու նորից, կանխատեսելիորեն և դրա գործողության կենսունակորեն նկատելի օրինաչափությամբ: Դուք կարող եք ասել, որ սովորական հացաթխման կենացը մոտավորապես նույն կերպ է տոստում և ունի տոստի հսկողություն, որը մեղմացնում է տոստերը, որոնք, ընդհանուր առմամբ, կանխատեսելի են տոստերն օգտագործող անձի կողմից: Ի հակադրություն, բարդ արհեստական ​​ինտելեկտի համակարգերը հաճախ ստեղծվում են որպես ոչ դետերմինիստական, ինչը նշանակում է, որ դրանք կարող են անել միանգամայն տարբեր բաներ, քան այն, ինչ դուք այլ կերպ ակնկալում էիք: Սա կարող է նաև մասամբ ավելի ուժեղանալ, եթե AI-ն գրված է ինքն իրեն կարգավորելու համար, մի ասպեկտ, որը կարող է շահավետորեն թույլ տալ AI-ին կատարելագործվել ML/DL-ի դեպքում, թեև կարող է նաև անհանգստացնել AI-ի թուլացում կամ մտնել շարքերում: AI վատության մասին. Հնարավոր է, որ դուք չգիտեք, թե ինչ հարվածեց ձեզ, խոսելու ձևով, քանի որ դուք լիովին անզգույշ եք բռնվել AI-ի գործողություններից:

Ի՞նչ կարող ենք մենք անել, որպեսզի փորձենք AI-ն ավելի մոտեցնել վստահելիությանը:

Մոտեցումներից մեկն այն է, որ փորձենք համոզվել, որ արհեստական ​​ինտելեկտը կառուցող և գործարկող անձինք ենթարկվում են արհեստական ​​ինտելեկտի էթիկայի մի շարք սկզբունքներին: Ինչպես նշեցին արհեստական ​​ինտելեկտի այս հետազոտողները. «Վստահությունը այն վերաբերմունքն է, որ գործակալը կվարվի այնպես, ինչպես ակնկալվում է, և կարող է ապավինել իր նպատակին հասնելու համար: Վստահությունը քայքայվում է գործակալի և վստահող անհատի միջև սխալ կամ թյուրիմացությունից հետո: AI-ի նկատմամբ վստահության հոգեբանական վիճակը բարդ համակարգի առաջացող հատկությունն է, որը սովորաբար ներառում է նախագծման, ուսուցման, տեղակայման, կատարողականի չափման, կարգավորման, վերանախագծման և վերապատրաստման բազմաթիվ ցիկլեր» (նշված է. ACM-ի հաղորդակցությունները, «Վստահություն, կանոնակարգում և մարդկային ինտելեկտուալ ինտելեկտը եվրոպական տարածաշրջանում»՝ Ստյուարտ Միդլթոնի, Էմանուել Լետուզեի, Ալի Հոսեյնիի և Ադրիան Չապմենի կողմից, 2022 թվականի ապրիլ):

Էությունը կայանում է նրանում, որ եթե մենք կարողանանք AI ծրագրավորողներին ստիպել պահպանել Էթիկական AI-ն, հուսով ենք, որ նրանք կարտադրեն վստահելի AI: Այս ամենը լավ է, բայց իրական աշխարհի հիմունքներով այն ինչ-որ չափով անիրագործելի է թվում, թեև դա բացարձակապես մի ճանապարհ է, որն արժե գնալ:

Ահա թե ինչ նկատի ունեմ:

Ենթադրենք, որ AI ծրագրավորողները ջանասիրաբար ջանք են գործադրում AI համակարգ ստեղծելով ինչ-որ նպատակով, որը մենք սովորաբար կանվանենք X: Նրանք ուշադիր համոզվում են, որ AI-ն պահպանում է AI-ի էթիկայի թափանցիկության կանոնները: Նրանք խստորեն ապահովում են, որ գաղտնիությունը պատշաճ կերպով ներկառուցված է AI-ի մեջ: Արհեստական ​​ինտելեկտի էթիկայի գրեթե բոլոր սովորական սկզբունքների համար AI կառուցողները սպառիչ կերպով ապահովում են, որ AI-ն համապատասխանում է տվյալ սկզբունքին:

Հիմա պե՞տք է վստահել այդ AI-ին:

Թույլ տվեք ինձ օգնել թափանցել ձեր մտքերը այդ բաց հարցի վերաբերյալ:

Պարզվում է, որ կիբեր ստահակներին հաջողվել է ներթափանցել արհեստական ​​ինտելեկտի մեջ և գաղտագողի ստիպել AI-ն կատարել X-ը և, այնուամենայնիվ, կիբեր հաքերներին կերակրել այն բոլոր տվյալները, որոնք AI-ն հավաքում է: Դրանով այս չարագործները նենգորեն խախտում են գաղտնիության կանոնները: Դուք երանելի անտեղյակ եք, որ դա տեղի է ունենում AI-ի գլխարկի տակ:

Այդ ավելացված տեղեկատվության հետ ես նորից նույն հարցը կտամ ձեզ:

Դուք վստահու՞մ եք այդ AI-ին:

Ես համարձակվում եմ ասել, որ մարդկանց մեծամասնությունը անմիջապես կհայտարարի, որ վստահաբար անում է Նշում վստահեք այս կոնկրետ AI-ին: Նրանք կարող էին ավելի վաղ վստահել դրան: Նրանք այժմ նախընտրում են այլևս AI-ն վստահելի չհամարել:

Այս պարզ օրինակի վրա հիմնված մի քանի հիմնական պատկերացումներ արժանի են խորհելու.

  • Վստահության դինամիկան. Նույնիսկ ամենալավ մտադրությունները՝ լուսաբանելու բոլոր հիմքերը՝ ապահովելու, որ AI էթիկան ներկառուցված է AI համակարգում, երաշխիք չեն, թե ինչպիսին կարող է լինել կամ դառնալ AI-ը: Երբ AI-ն գործարկվի, կողմնակի անձինք կարող են պոտենցիալ խաթարել AI-ի էթիկական կուտակումները:
  • Ներսից վստահության անկում: Վստահելիությունը ստորացնելու գործողությունը պարտադիր չէ, որ դրսից լինի: Ինսայդերը, որը կանոնավոր կերպով պահպանում է AI համակարգը, կարող է սխալ թույլ տալ և թուլացնել AI-ն՝ դառնալով ավելի քիչ վստահելի: Այս AI ծրագրավորողը կարող է չգիտի, թե ինչ են արել:
  • Վստահության ակամա փոխզիջումներ. Ինքնակարգավորվող կամ ինքնակարգավորվող AI-ն կարող է ինչ-որ պահի հարմարվել ինքն իրեն և շեղվել դեպի անվստահելի տարածք: Հավանաբար, AI-ն փորձում է ուժեղացնել AI-ի թափանցիկությունը և, այնուամենայնիվ, միաժամանակ և անպատշաճ կերպով վտանգում է գաղտնիության կողմերը:
  • Վստահության ցրում. Փորձելով հասնել AI-ի էթիկայի բոլոր դրույթներին վստահելիության նույն առավելագույն աստիճանին, սովորաբար հեշտությամբ կենսունակ չէ, քանի որ դրանք հաճախ հակասական նպատակներ են հետապնդում կամ ունեն այլ բնածին պոտենցիալ կոնֆլիկտներ: Բավականին իդեալականացված հեռանկար է հավատալ, որ Արհեստական ​​ինտելեկտի էթիկական բոլոր կանոնները երազկոտորեն համահունչ են և բոլորը հասանելի են որոշակի հավասար առավելագույն չափով:
  • Վստահությունը կարող է թանկ արժենալ: Տարբեր լայնածավալ և սպառիչ քայլեր ձեռնարկելու և արհեստական ​​ինտելեկտի էթիկայի կանոններին հետևելու միջոցով վստահելի արհեստական ​​ինտելեկտի բարձր մակարդակի տեսք ունենալու փորձի արժեքը համեմատաբար բարձր է լինելու: Դուք կարող եք հեշտությամբ պնդել, որ ծախսերը սահմանափակող կլինեն AI որոշ համակարգերի օգտագործման առումով, որոնք այլապես կարևոր արժեք ունեն հասարակության համար, նույնիսկ եթե AI-ն լիներ, վստահելիության ցանկությունից ելնելով, ասենք ավելի քիչ, քան իդեալական:
  • Եվ այսպես շարունակ:

Մի սխալ մեկնաբանեք նախորդ դիտողությունները՝ առաջարկելով, որ մենք պետք է ինչ-որ կերպ խուսափենք վստահելի արհեստական ​​ինտելեկտի հիմնովին կառուցման և կիրառման ջանքերից: Դուք, այսպես ասած, երեխային լոգանքի ջրով դուրս կշպրտեք: Պատշաճ մեկնաբանությունն այն է, որ մենք պետք է անենք այդ վստահելի գործողությունները՝ AI-ն վստահելի դիտարկման մեջ դնելու համար, և, այնուամենայնիվ, դա միայն բուժման կամ արծաթե փամփուշտ չէ:

Բազմակողմանի ուղիներ դեպի վստահելի AI

Կան կարևոր լրացուցիչ բազմակողմ ուղիներ՝ ձգտելու դեպի վստահելի AI:

Օրինակ, ինչպես ես նախկինում անդրադարձել եմ իմ սյունակներում, արհեստական ​​ինտելեկտի վերաբերյալ նոր ձևավորվող օրենքների և կանոնակարգերի մի շարք նպատակ ունեն AI ստեղծողներին մղել դեպի վստահելի AI մշակելու, տես. հղումն այստեղ և հղումն այստեղ.

Այս օրինական պաշտպանիչ բազկաթոռները շատ կարևոր են որպես համապարփակ միջոց՝ համոզվելու, որ արհեստական ​​ինտելեկտի ստեղծողները լիովին պատասխանատու են իրենց AI-ի համար: Առանց նման պոտենցիալ իրավական միջոցների և օրինական տույժերի, նրանք, ովքեր ինտելեկտուալ արհեստական ​​ինտելեկտը շտապում են շուկա, ամենայն հավանականությամբ կշարունակեն դա անել վստահելի արհեստական ​​ինտելեկտի ձեռքբերման համար քիչ, եթե ոչ լուրջ ուշադրություն դարձնելով: Հատկապես կարող եմ ավելացնել, որ եթե այդ օրենքներն ու կանոնակարգերը վատ մշակված կամ անբավարար իրականացվեն, նրանք, ցավոք, կարող են խաթարել վստահելի AI-ի հետապնդումը, գուցե հեգնանքով և տարօրինակ կերպով խթանելով անվստահելի AI-ն վստահելի AI-ի նկատմամբ (տե՛ս իմ սյունակի քննարկումները հետագա բացատրության համար):

Ես նաև հավատարիմ պաշտպանն եմ եղել այն բանի, ինչին ես եռանդուն կերպով նշում էի AI-ի պահապան հրեշտակի բոտերը (տես իմ լուսաբանումը հղումն այստեղ) Սա կրակի հետ պայքարելու առաջիկա մեթոդն է կամ մոտեցումը, մասնավորապես՝ արհեստական ​​ինտելեկտի օգտագործումը, որպեսզի օգնի մեզ գործ ունենալ այլ AI-ի հետ, որը կարող է վստահելի լինել կամ չլինել:

Նախ, որոշ ֆոնային ենթատեքստ օգտակար կլինի:

Ենթադրենք, որ դուք նախընտրում եք ապավինել AI համակարգին, որը վստահ չեք դրա վստահելիության մեջ: Հիմնական մտահոգությունը կարող է լինել այն, որ դուք մենակ եք, երբ փորձում եք պարզել, թե արդյոք AI-ին պետք է վստահել, թե ոչ: AI-ն պոտենցիալ հաշվողականորեն ավելի արագ է, քան դուք և կարող է օգտվել ձեզանից: Ձեզ անհրաժեշտ է ինչ-որ մեկը կամ ինչ-որ բան ձեր կողմից, որպեսզի օգնի:

Տեսանկյուններից մեկն այն է, որ միշտ պետք է լինի մարդ-կապված, որը կօգնի ձեզ, երբ դուք օգտվում եք AI համակարգից: Սակայն սա խնդրահարույց լուծում է։ Եթե ​​AI-ն աշխատում է իրական ժամանակում, ինչի մասին մենք կքննարկենք ակնթարթորեն, երբ խոսքը վերաբերում է AI-ի վրա հիմնված ինքնակառավարվող մեքենաների ի հայտ գալուն, ապա «մարդկանց օղակում» ունենալը կարող է բավարար չլինել: Արհեստական ​​ինտելեկտը կարող է գործել իրական ժամանակում, և երբ նշանակված մարդն ի հայտ կգա նկարում՝ պարզելու, թե արդյոք արհեստական ​​ինտելեկտը ճիշտ է աշխատում, աղետալի արդյունք արդեն կարող է տեղի ունենալ:

Որպես մի կողմ, սա վկայում է վստահության ևս մեկ գործոնի մասին: Մենք սովորաբար վստահության մակարդակ ենք նշանակում՝ ելնելով այն համատեքստից կամ հանգամանքից, որին բախվում ենք: Դուք կարող եք լիովին վստահել, որ ձեր փոքրիկ որդու կամ դստերը հավատարիմ կլինեն ձեզ, բայց եթե դուք արշավում եք և որոշեք ապավինել փոքրիկին, որպեսզի ձեզ ասի, թե արդյոք անվտանգ է ոտք դնել ժայռի եզրին, կարծում եմ, որ դուք իմաստուն կլինեք: մտածել, թե արդյոք փոքրիկը կարող է կյանքի կամ մահվան նման խորհուրդ տալ: Երեխան կարող է դա անել լրջորեն և անկեղծորեն, և, այնուամենայնիվ, չկարողանա պատշաճ կերպով նման խորհուրդ տալ:

Նույն հասկացությունը կապված է վստահության հետ, երբ խոսքը AI-ի մասին է: Արհեստական ​​ինտելեկտի համակարգը, որը դուք օգտագործում եք շաշկի կամ շախմատ խաղալու համար, հավանաբար ներգրավված չէ կյանքի կամ մահվան որևէ քննարկման մեջ: Դուք կարող եք ավելի հանգիստ լինել ձեր վստահության հանձնարարությամբ: AI-ի վրա հիմնված ինքնակառավարվող մեքենան, որը մեծ արագությամբ վազում է մայրուղով, պահանջում է վստահության շատ ավելի խիստ մակարդակ: AI վարորդական համակարգի ամենափոքր շեղումը կարող է ուղղակիորեն հանգեցնել ձեր մահվան և ուրիշների մահվան:

Global Deloitte AI ինստիտուտի գործադիր տնօրեն և գրքի հեղինակ Բինա Ամմանաթի հրապարակված հարցազրույցում. Վստահելի AI, Նմանատիպ շեշտադրումը՝ հաշվի առնելով AI-ի վստահելիության համատեքստային կողմերը. «Եթե դուք կառուցում եք AI լուծում, որը կատարում է հիվանդի ախտորոշում, արդարությունն ու կողմնակալությունը չափազանց կարևոր են: Բայց եթե դուք ալգորիթմ եք կառուցում, որը կանխատեսում է ռեակտիվ շարժիչի խափանումը, արդարությունն ու կողմնակալությունն այնքան էլ կարևոր չեն: Վստահելի արհեստական ​​ինտելեկտը իսկապես կառույց է, որը կստիպի ձեզ մտածել ձեր կազմակերպության ներսում վստահության չափերի մասին» (VentureBeat, 22 մարտի, 2022)։

Վստահելի AI-ն քննարկելիս կարող եք այս թեման մեկնաբանել բազմաթիվ ձևերով:

Օրինակ, վստահելի AI մի բան է, որը մենք բոլորս դիտարկում ենք որպես ցանկալի և ձգտող նպատակ, մասնավորապես, որ մենք պետք է ցանկանանք ստեղծել և տարածել վստահելի AI-ն: Գոյություն ունի բառակապակցության մեկ այլ կիրառություն. Որոշակի այլընտրանքային օգտագործումը դա է վստահելի AI պայմանի կամ չափման վիճակ է, այնպիսին, որ ինչ-որ մեկը կարող է պնդել, որ իրենք ստեղծել են AI համակարգ, որը վստահելի AI-ի օրինակ է: Կարող եք նաև օգտագործել արտահայտությունը վստահելի AI առաջարկել մեթոդ կամ մոտեցում, որը կարող է օգտագործվել արհեստական ​​ինտելեկտի վստահելիություն ձեռք բերելու համար: և այլն:

Մի առնչությամբ, ես վստահ եմ, որ դուք գիտակցում եք, որ ոչ բոլոր AI-ն է նույնը, և որ մենք պետք է զգույշ լինենք, որ համապարփակ հայտարարություններ չանենք ամբողջ AI-ի մասին: AI կոնկրետ համակարգը, ամենայն հավանականությամբ, էականորեն տարբերվում է այլ AI համակարգից: Այդ AI համակարգերից մեկը կարող է լինել բարձր վստահելի, մինչդեռ մյուսը կարող է լինել աննշան վստահելի: Զգույշ եղեք՝ ինչ-որ կերպ ենթադրելով, որ AI-ն մոնոլիտ է, որը կա՛մ լիովին վստահելի է, կա՛մ լիովին վստահելի չէ:

Սա ուղղակի այդպես չէ։

Ես կցանկանայի հաջորդ համառոտորեն լուսաբանել վստահելի AI-ի վերաբերյալ իմ շարունակական հետազոտություններից մի քանիսը, որոնք ձեզ կարող են հետաքրքրել՝ լուսաբանելով առաջացող դերը: AI-ի պահապան հրեշտակի բոտերը.

Ահա թե ինչպես է այն ընթանում.

Դուք զինված կլինեք AI համակարգով (AI-ի պահապան հրեշտակի բոտ), որը ստեղծվել է որոշ այլ AI համակարգի վստահելիությունը գնահատելու համար: Արհեստական ​​ինտելեկտի պահապան հրեշտակի բոտը գլխավորապես կենտրոնացած է ձեր անվտանգության վրա: Մտածեք այս մասին, ասես դուք միջոցներ ունեք վերահսկելու AI-ն, որի վրա հիմնվում եք՝ ունենալով այլ AI համակարգ ձեր իսկական գրպանում, որը հավանաբար աշխատում է ձեր սմարթֆոնի կամ նման այլ սարքերի վրա: Ձեր ասացվածքային AI խնամակալը կարող է հաշվարկել այն հիմքի վրա, որ AI-ն, որի վրա դուք ապավինում եք, նույնպես անում է՝ աշխատելով արագ արագությամբ և իրական ժամանակում հաշվարկելով իրավիճակը, շատ ավելի արագ, քան դա կարող է անել մարդ-կապված մարդ:

Դուք կարող եք առաջին հայացքից մտածել, որ AI-ն, որի վրա արդեն ապավինում եք, պետք է ունենա որոշակի ներքին AI պաշտպանիչ բազրիքներ, որոնք անում են նույնը, ինչ այս առանձին հաշվարկվող AI-ի պահապան հրեշտակի բոտը: Այո, դա անպայման ցանկալի կլիներ: Մի անհանգստություն այն է, որ արհեստական ​​ինտելեկտի համակարգում ներկառուցված AI-ի պաշտպանիչ բազկաթոռները կարող են ինտեգրալ և վնասազերծված լինել AI-ի հետ, հետևաբար, ենթադրյալ AI-ի պաշտպանիչ բազկաթոռն այլևս ի վիճակի չէ ինչ-որ առումով ինքնուրույն ստուգել կամ վավերացնել AI-ն:

Հակադրվող գաղափարն այն է, որ ձեր AI-ի պահապան հրեշտակի բոտը անկախ կամ երրորդ կողմի AI մեխանիզմ է, որը տարբերվում է AI-ից, որի վրա դուք ապավինում եք: Այն գտնվում է մյուս AI-ից դուրս՝ մնալով ձեզ նվիրված և ոչ թե նվիրված AI-ին, որը վերահսկվում կամ գնահատվում է:

Այս մասին մտածելու պարզ միջոցը կարող է արտահայտվել հետևյալ պարզեցված հավասարման նման հայտարարությունների միջոցով: Կարելի է ասել, որ «P»-ն ցանկանում է պոտենցիալ վստահել «R»-ին՝ «X»-ի որոշակի առաջադրանք կատարելու համար.

Սա կլինի հետևյալը, երբ ներգրավված են միայն մարդիկ.

  • P անձը վստահում է R անձին կատարել X առաջադրանքը:

Երբ մենք ընտրում ենք հենվել AI-ի վրա, հայտարարությունը վերափոխվում է այսպես.

  • Անձը P վստահում է AI instance-R-ին X առաջադրանքը կատարելու համար:

Մենք կարող ենք ավելացնել AI-ի պահապան հրեշտակի բոտը՝ ասելով սա.

  • Անձը P վստահում է AI instance-R-ին կատարել X առաջադրանքը, քանի որ նա վերահսկվում է AI-ի պահապան հրեշտակի բոտ օրինակ-Z-ի կողմից

AI-ի պահապան հրեշտակի բոտը անխոնջ և անխնա գնահատում է AI-ն, որի վրա դուք ապավինում եք: Որպես այդպիսին, ձեր հարմար AI խնամակալը կարող է զգուշացնել ձեզ, որ այս այլ AI-ի վստահությունն անհիմն է: Կամ, AI-ի խնամակալը կարող է էլեկտրոնային եղանակով փոխազդել մյուս AI-ի հետ՝ փորձելով ապահովել, որ վստահելի լինելուց հեռու ցանկացած տարբերություն արագ շտկվի և այլն (տե՛ս նման մանրամասների մասին իմ լուսաբանումը այստեղ՝ հղումն այստեղ).

Վստահելի վստահության ջրամբարի փոխաբերությունը

Քանի որ մենք քննարկում ենք վստահության տարբեր մակարդակներ, դուք կարող եք գտնել վստահելիության մասին հարմար փոխաբերություն՝ պատկերացնելով վստահությունը որպես ջրամբարի տեսակ:

Դուք որոշակի վստահություն ունեք որոշակի անձի կամ առարկայի նկատմամբ որոշակի հանգամանքներում ժամանակի որոշակի կետում: Վստահության մակարդակը կբարձրանա կամ կիջնի՝ կախված նրանից, թե ինչ է կատարվում տվյալ անձի կամ իրի հետ կապված: Վստահությունը կարող է լինել զրոյական մակարդակի վրա, երբ դուք որևէ վստահություն չունեք տվյալ անձի կամ իրի նկատմամբ: Վստահությունը կարող է բացասական լինել, երբ դուք համարձակվում եք անվստահություն ունենալ այդ անձի կամ իրի նկատմամբ:

Ինտելեկտուալ ինտելեկտի համակարգերի դեպքում ձեր վստահության ռեզերվատորը կոնկրետ AI-ի համար, որի վրա դուք ապավինում եք որոշակի հանգամանքներում, կբարձրանա կամ կնվազի, քանի որ կախված է ձեր կողմից AI-ի վստահելիությունը գնահատելուց: Երբեմն դուք կարող եք լավ տեղյակ լինել AI-ի նկատմամբ վստահության այս տարբեր մակարդակի մասին, մինչդեռ այլ դեպքերում դուք կարող եք ավելի քիչ տեղյակ լինել և ավելի շատ՝ վստահության մասին դատողություններ անելով:

Այն եղանակները, որոնք մենք այստեղ քննարկել ենք AI-ի վստահության մակարդակը բարձրացնելու միջոցները ներառում են.

  • AI-ի էթիկայի հավատարմություն: Եթե ​​AI-ն, որի վրա դուք ապավինում եք, ստեղծվել է՝ փորձելով հավատարիմ մնալ AI-ի էթիկայի կանոններին, դուք հավանաբար կօգտագործեիք այս հասկացողությունը՝ բարձրացնելու ձեր վստահության ռեզերվուարի մակարդակը տվյալ AI համակարգի համար: Որպես կողմնակի նշում, հնարավոր է նաև, որ դուք կարող եք ընդհանրացնել այլ արհեստական ​​ինտելեկտուալ համակարգերի վրա՝ կապված դրանց վստահելիության հետ, նույնպես, չնայած դա երբեմն կարող է լինել իմ կոչածի ապակողմնորոշիչ ձևը: AI վստահության աուրայի տարածում (զգույշ եղեք դա անելիս):
  • Օգտագործեք Human-In-The-Loop: Եթե ​​արհեստական ​​ինտելեկտն ունի «մարդկանց օղակում», դուք կարող եք դրականորեն ավելացնել AI-ի հանդեպ ձեր ընկալվող վստահությունը:
  • Սահմանել օրենքներ և կանոնակարգեր. Եթե ​​կան օրենքներ և կանոնակարգեր, որոնք կապված են այս կոնկրետ տեսակի AI-ի հետ, դուք նույնպես կարող եք բարձրացնել ձեր վստահության մակարդակը:
  • Աշխատեք AI Guardian Angel Bot-ին. Եթե ​​դուք պատրաստ ունեք արհեստական ​​ինտելեկտի պահապան հրեշտակի բոտ, սա նույնպես ավելի կբարձրացնի ձեր վստահության մակարդակը:

Ինչպես նշվեց ավելի վաղ, վստահությունը կարող է բավականին փխրուն լինել և մի ակնթարթում փլուզվել (այսինքն՝ վստահության ջրամբարը արագ և հանկարծակի դուրս է թափում կուտակված վստահությունը):

Պատկերացրեք, որ դուք գտնվում եք AI-ի վրա հիմնված ինքնակառավարվող մեքենայի մեջ, և AI-ը, որը վարում է, հանկարծ արմատական ​​աջ շրջադարձ է կատարում, ինչի հետևանքով անիվները ճռռում են և գրեթե ստիպելով ինքնավար մեքենան վտանգված շրջվել: Ի՞նչ կլինի ձեր վստահության մակարդակի հետ: Թվում է, որ նույնիսկ եթե նախկինում AI-ն վստահության բարձր մակարդակի վրա էիք պահում, դուք կտրուկ և կտրուկ կնվազեցիք ձեր վստահության մակարդակը, խելամտորեն:

Այս ծանրակշիռ քննարկման այս պահին ես գրազ կգամ, որ դուք ցանկանում եք լրացուցիչ պատկերավոր օրինակներ, որոնք կարող են ցույց տալ վստահելի AI-ի բնույթն ու շրջանակը: Կա մի հատուկ և վստահաբար սիրված օրինակների հավաքածու, որն ինձ հոգեհարազատ է: Տեսեք, որպես AI-ի փորձագետ, ներառյալ էթիկական և իրավական հետևանքները, ինձ հաճախ խնդրում են բացահայտել իրատեսական օրինակներ, որոնք ցույց են տալիս AI-ի էթիկայի երկընտրանքները, որպեսզի թեմայի տեսական բնույթն ավելի հեշտ ըմբռնվի: Ամենաոգեշնչող ոլորտներից մեկը, որը վառ կերպով ներկայացնում է այս էթիկական արհեստական ​​ինտելեկտի խնդիրը, AI-ի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելն է: Սա կծառայի որպես հարմար օգտագործման դեպք կամ օրինակ՝ թեմայի շուրջ լայն քննարկման համար:

Ահա մի ուշագրավ հարց, որի մասին արժե մտածել. Արդյո՞ք արհեստական ​​ինտելեկտի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելը որևէ բան լուսաբանում է վստահելի արհեստական ​​ինտելեկտի ձգտման մասին, և եթե այո, ի՞նչ է սա ցույց տալիս:

Թույլ տվեք մի պահ բացել հարցը:

Նախ, նշեք, որ իրական ինքնակառավարվող մեքենայի մեջ մարդ վարորդ չկա: Հիշեք, որ իսկական ինքնակառավարվող մեքենաները վարում են AI վարորդական համակարգի միջոցով: Ղեկին մարդ վարորդի կարիք չկա, մեքենան վարելու համար մարդ չկա: Ինքնավար տրանսպորտային միջոցների (ԱՎ) և հատկապես ինքնակառավարվող մեքենաների իմ լայնածավալ և շարունակական լուսաբանման համար տե՛ս. հղումն այստեղ.

Ես կցանկանայի ավելի պարզաբանել, թե ինչ է նշանակում, երբ ես վերաբերում եմ իրական ինքնակառավարվող մեքենաներին:

Հասկանալով ինքնակառավարվող մեքենաների մակարդակները

Որպես պարզաբանում, իսկական ինքնակառավարվող մեքենաներն այն մեքենաներն են, որտեղ AI-ն ամբողջությամբ ինքնուրույն է վարում մեքենան, և վարորդական առաջադրանքի ընթացքում մարդկային օգնություն չի ցուցաբերվում:

Այս առանց վարորդի տրանսպորտային միջոցները համարվում են 4-րդ և 5-րդ մակարդակներ (տե՛ս իմ բացատրությունը այս հղումը Մականուն), մինչդեռ մեքենան, որը մարդկային վարորդից պահանջում է համատեղ ջանքեր գործադրել, սովորաբար դիտարկվում է 2-րդ կամ 3-րդ մակարդակում: Մեքենաները, որոնք համատեղ կատարում են վարորդական առաջադրանքը, նկարագրվում են որպես կիսաինքնավար և սովորաբար պարունակում են մի շարք մեքենաներ: ավտոմատացված հավելումներ, որոնք կոչվում են ADAS (Վարորդների օգնության առաջադեմ համակարգեր):

5-րդ մակարդակում դեռ իրական ինքնակառավարվող մեքենա չկա, և մենք դեռ չգիտենք, թե արդյոք դա հնարավոր կլինի հասնել, և որքան ժամանակ կպահանջվի այնտեղ հասնելու համար:

Միևնույն ժամանակ, 4-րդ մակարդակի ջանքերը աստիճանաբար փորձում են որոշակի ձգողականություն ձեռք բերել՝ անցնելով շատ նեղ և ընտրովի հանրային ճանապարհային փորձարկումներ, թեև հակասություններ կան այն հարցի շուրջ, թե արդյոք այս թեստավորումն ինքնին պետք է թույլատրվի (մենք բոլորս փորձի մեջ կյանքի կամ մահվան ծովախոզուկներ ենք: ոմանք պնդում են, որ տեղի է ունենում մեր մայրուղիներում և ճանապարհների վրա, տես իմ լուսաբանումը այս հղումը Մականուն).

Քանի որ կիսաավտոմեքենաները մարդկային վարորդ են պահանջում, այդպիսի մեքենաների ընդունումը չի տարբերվի սովորական տրանսպորտային միջոցներից վարվելուց, հետևաբար, այս թեմայի շուրջ դրանց մասին ծածկելու համար ամենևին էլ նոր բան չկա (չնայած, ինչպես կտեսնեք մի ակնթարթում ընդհանուր առմամբ կիրառվում են հաջորդ կետերը):

Կիսաանվտանգ ավտոմեքենաների համար կարևոր է, որ հասարակությունը պետք է նախազգուշացվի վերջին շրջանում ի հայտ եկած անհանգստացնող կողմի մասին, մասնավորապես այն, որ չնայած այն մարդկային վարորդներին, ովքեր շարունակում են փակցնել իրենց տեսահոլովակները իրենց մասին, քնում են «Level 2» կամ «Level 3» մեքենայի ղեկին: , մենք բոլորս պետք է խուսափենք ապակողմնորոշվելուց `հավատալով, որ վարորդը կարող է իրենց ուշադրությունը հանել վարորդական առաջադրանքից` կիսաավտոմեքենան վարելիս:

Դուք պատասխանատու կողմն եք տրանսպորտային միջոցի վարման գործողությունների համար, անկախ նրանից, թե որ ավտոմատացումը կարող է տեղափոխվել 2-րդ մակարդակի կամ 3-րդ մակարդակի:

Ինքնավար մեքենաներ և վստահելի AI

4-րդ և 5-րդ մակարդակների իսկական ինքնագնաց տրանսպորտային միջոցների համար վարորդական գործին չի մասնակցի մարդկային վարորդ:

Բոլոր գրավյալները ուղևորներ են լինելու:

AI- ն վարում է վարումը:

Անմիջապես քննարկելու մի ասպեկտ ենթադրում է այն փաստը, որ այսօր AI- ի վարման համակարգերում ներգրավված AI- ն զգայուն չէ: Այլ կերպ ասած, AI- ն ընդհանուր առմամբ համակարգչային ծրագրավորման և ալգորիթմների հավաքածու է, և, անկասկած, ի վիճակի չէ տրամաբանել այնպես, ինչպես մարդիկ կարող են:

Ինչու՞ է այս հավելյալ շեշտադրումը արհեստական ​​ինտելեկտի մասին զգացմունքային չէ:

Քանի որ ես ուզում եմ ընդգծել, որ երբ քննարկում եմ AI շարժիչ համակարգի դերը, ես մարդկային որակներ չեմ վերագրում AI- ին: Խնդրում ենք տեղյակ լինել, որ այս օրերին շարունակական և վտանգավոր միտում կա AI- ն մարդաբանելու համար: Ըստ էության, մարդիկ մարդկային նման զգացողություն են հատկացնում այսօրվա AI- ին, չնայած անհերքելի և անառարկելի փաստին, որ այդպիսի AI դեռ գոյություն չունի:

Այդ պարզաբանմամբ դուք կարող եք պատկերացնել, որ AI վարելու համակարգը բնիկ ինչ-որ կերպ «չի իմանա» վարման կողմերի մասին: Վարորդությունն ու դրա հետևանքները պետք է ծրագրավորվեն որպես ինքնակառավարվող մեքենայի սարքավորումների և ծրագրակազմի մաս:

Եկեք սուզվենք այն անհամար ասպեկտների մեջ, որոնք սկսում են խաղալ այս թեմայի շուրջ:

Նախ, կարևոր է գիտակցել, որ ոչ բոլոր ինքնակառավարվող AI մեքենաները նույնն են: Յուրաքանչյուր ավտոարտադրող և ինքնակառավարվող տեխնոլոգիական ընկերություն իր մոտեցումն է ցուցաբերում ինքնակառավարվող մեքենաների ստեղծման հարցում: Որպես այդպիսին, դժվար է լայնածավալ հայտարարություններ անել այն մասին, թե ինչ կանեն կամ չեն անեն AI վարորդական համակարգերը:

Ավելին, ամեն անգամ, երբ նշվում է, որ արհեստական ​​ինտելեկտի կառավարման համակարգը որոշակի բան չի անում, դա հետագայում կարող է շրջանցվել այն մշակողների կողմից, որոնք իրականում ծրագրավորում են համակարգիչը հենց դա անելու համար: Քայլ առ քայլ, արհեստական ​​ինտելեկտի շարժիչ համակարգերը աստիճանաբար բարելավվում և ընդլայնվում են: Այսօր գոյություն ունեցող սահմանափակումն այլևս գոյություն չի ունենա համակարգի ապագա կրկնության կամ տարբերակի դեպքում:

Հավատում եմ, որ բավականաչափ նախազգուշացում է ապահովում ՝ հիմք դնելու այն, ինչի մասին ես պատրաստվում եմ պատմել:

Մենք այժմ պատրաստ ենք խորը սուզվելու ինքնակառավարվող մեքենաների և վստահելի AI-ի մեջ:

Վստահությունն ամեն ինչ է, հատկապես AI-ի վրա հիմնված ինքնակառավարվող մեքենաների դեպքում:

Հասարակությունը կարծես զգուշությամբ է նայում ինքնակառավարվող մեքենաների առաջացմանը: Մի կողմից, մեծ հույս կա, որ իսկական ինքնակառավարվող մեքենաների հայտնվելը ակնհայտորեն կնվազեցնի ավտոմեքենաների հետ կապված մահացությունների թիվը: Միայն Միացյալ Նահանգներում ավտովթարների հետևանքով տարեկան մոտ 40,000 մահ է գրանցվում և մոտ 2.5 միլիոն վիրավոր, տես իմ վիճակագրության հավաքածուն. հղումն այստեղ. Մարդիկ խմում են և քշում: Մարդիկ մեքենա են վարում շեղված վիճակում: Մեքենա վարելու խնդիրը, թվում է, բաղկացած է նրանից, որ կարողանանք անընդհատ և անսխալ կենտրոնանալ վարելու վրա և խուսափել ավտովթարներից: Որպես այդպիսին, մենք կարող ենք երազել հուսալ, որ AI վարորդական համակարգերը կուղղորդեն ինքնակառավարվող մեքենաները կրկնվող և անսխալ: Դուք կարող եք ինքնակառավարվող մեքենաները պատկերացնել որպես երկու տարբերակ, որը բաղկացած է ավտովթարի զոհերի և վնասվածքների քանակի կրճատումից, ինչպես նաև շարժունակությունը շատ ավելի լայն և մատչելի հիմունքներով հասանելի դարձնելուց:

Բայց անհանգստությունը միևնույն ժամանակ առաջանում է հասարակության ընկալումների վրա, թե արդյոք ինքնակառավարվող մեքենաները բավականաչափ անվտանգ են լինելու մեր հանրային ճանապարհների վրա:

Եթե ​​նույնիսկ մեկ ինքնակառավարվող մեքենան վթարի կամ բախման ենթարկվի, որը հանգեցնում է մեկ մահվան կամ ծանր վնասվածքի, դուք, հավանաբար, կարող եք ակնկալել, որ այսօրվա որոշակիորեն ձևավորված վստահությունը AI-ի վրա հիմնված անվարորդ մեքենաների նկատմամբ կտրուկ կնվազի: Մենք տեսանք, որ դա տեղի ունեցավ, երբ այժմ տխրահռչակ միջադեպը տեղի ունեցավ Արիզոնայում, որը կապված էր որոշ չափով (ոչ իրականում) ինքնակառավարվող մեքենայի հետ, որը վրաերթի ենթարկեց և սպանեց մի հետիոտնի (տես իմ լուսաբանումը այստեղ. այս հղումը Մականուն).

Որոշ փորձագետներ նշում են, որ անարդար և անպատշաճ է արհեստական ​​ինտելեկտի ինքնակառավարվող մեքենաների վստահությունը հիմնել այն կողմի վրա, որ միայն մեկ նման հաջորդ մահացու վթարը կամ բախումը կարող է խաթարել արդեն համեմատաբար առանց վթարի հանրային ճանապարհային փորձարկումները: Բացի այդ, հետագա անարդար հիմունքներով, հավանականությունն այն է, որ անկախ AI-ի ինքնակառավարվող ավտոմեքենայի կոնկրետ ապրանքանիշից կամ մոդելից, հասարակությունը, անկասկած, մեղադրելու է բոլոր ինքնակառավարվող մեքենաների ապրանքանիշերին:

Ինքնավար մեքենաների ամբողջությունը կարող է համառոտ կերպով աղտոտվել, և արդյունաբերությունը, որպես ամբողջություն, կարող է ենթարկվել ահռելի հակազդեցության, ինչը կհանգեցնի հանրային ճանապարհների բոլոր փորձարկումների հնարավոր դադարեցմանը:

Նման հակադարձմանը նպաստում են ինքնակառավարվող մեքենաների բացահայտ կողմնակիցների անհեթեթ հայտարարություններն այն մասին, որ առանց վարորդի բոլոր մեքենաները վթարի ենթակա չեն: Անխափանելի լինելու այս գաղափարը ոչ միայն բացարձակապես սխալ է (տես հղումն այստեղ), այն նենգորեն ստեղծում է ինքնակառավարվող մեքենաների արդյունաբերությունը միանգամայն անհասկանալի սպասելիքների համար: Այս տարօրինակ և անհասանելի հայտարարություններն այն մասին, որ զրոյական մահեր կլինեն ինքնակառավարվող մեքենաների պատճառով, խթանում են այն թյուր կարծիքը, որ ցանկացած ավտովթար առանց վարորդի վստահ նշան է այն բանի, որ ամբողջ հանդերձանքն ու կաբուդը զուր են:

Հստակ տխրություն կա գիտակցելու, որ ինքնակառավարվող մեքենաների առաջընթացը և հասարակության վստահության մատնաչափ կուտակումը կարող են անհետանալ մի ակնթարթում: Դա վստահության փխրունության մասին մի լավ ցուցադրություն է լինելու:

Եզրափակում

Շատ ավտոարտադրողներ և ինքնակառավարվող տեխնոլոգիական ընկերություններ, ընդհանուր առմամբ, պահպանում են AI-ի էթիկայի սկզբունքները՝ փորձելով ստեղծել և զարգացնել վստահելի AI՝ անվտանգ և հուսալի AI-ի վրա հիմնված ինքնակառավարվող մեքենաների առումով: Խնդրում ենք գիտակցել, որ այդ ընկերություններից ոմանք ավելի ուժեղ են և ավելի նվիրված են Էթիկական AI-ի սկզբունքներին, քան մյուսները: Կան նաև երբեմն-երբեմն ինքնակառավարվող մեքենաների հետ կապված նորաստեղծ ընկերություններ, որոնք կարծես թե մի կողմ են թողնում արհեստական ​​ինտելեկտի էթիկայի հիմնաքարերը (տե՛ս իմ ակնարկը. հղումն այստեղ).

Մյուս ոլորտներում ինքնակառավարվող մեքենաներին վերաբերող նոր օրենքներն ու կանոնակարգերը աստիճանաբար տեղավորվեցին իրավական գրքերում: Արդյոք նրանք ունեն անհրաժեշտ ատամներ՝ դրանք հաստատելու համար, այլ խնդիր է, ինչպես նաև՝ լրջորեն են վերաբերվում այդ օրենքների կիրառմանը, թե անտեսվում են (սրա վերաբերյալ վերլուծությունների համար տե՛ս իմ սյունակները):

Սա նաև բարձր տեխնոլոգիաների տեսանկյունից է: Ես կանխատեսել եմ, որ մենք աստիճանաբար կտեսնենք արհեստական ​​ինտելեկտի պահապան հրեշտակի բոտերի տարբերակներ, որոնք առաջին պլան կգան ինքնավար մեքենաների և ինքնակառավարվող մեքենաների ասպարեզում: Մենք դեռ այնտեղ չենք: Սա ավելի տարածված կդառնա, երբ ինքնակառավարվող մեքենաների հանրաճանաչությունը դառնա ավելի լայն տարածում:

Այս վերջին կետը բերում է վստահության մասին հայտնի տող, որը դուք, անկասկած, արդեն անգիր գիտեք:

Վստահեք, բայց ստուգեք:

Մենք կարող ենք մեզ թույլ տալ ընդլայնել մեր վստահությունը, գուցե մեծահոգաբար: Միևնույն ժամանակ, մենք նույնպես պետք է բազեի պես հետևենք, որպեսզի համոզվենք, որ մեր ստեղծած վստահությունը հաստատվում է թե՛ խոսքով, թե՛ գործով: Եկեք վստահենք արհեստական ​​ինտելեկտին, բայց անվերջ ստուգենք, որ մենք մեր վստահությունն ենք դնում պատշաճ կերպով և լայն բաց աչքերով:

Դուք կարող եք վստահել ինձ այդ հարցում:

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/