AI-ի էթիկան ողջունում է արհեստական ​​ինտելեկտի ռիսկերի կառավարման ստանդարտացված շրջանակի հեռանկարները, որը կարող է նաև խթանել ինքնավար մեքենաների ջանքերը:

Կարծես թե մեզ անընդհատ ասում են, որ կյանքում կարևոր է ռիսկի դիմելը:

Եթե ​​նայեք մեջբերումների ցանկացած առօրյա ցուցակագրում, ապա կյանքի հաքերների գերակշռություն կա, որը ձեզ հուշում է ընդունել ռիսկը: Օգտվեք հնարավորությունից և բարձրացեք վերջույթի վրա: Մի կողմ թողեք ձեր կաշկանդող հոգսերը և ազատ թռչեք ռիսկի զարմանքով: Ռիսկը քո ընկերն է: Ռիսկը ստիպում է աշխարհը շրջել: Պարզապես ասված է, ոչ մի ռիսկ, ոչ մի շահ:

Թեև ռիսկի դիմող լինելու այս վառ խրախուսանքները խելամիտ են թվում, ինչ-որ կերպ ռիսկի բացասական կողմերի մասին հակակշռող և սթափեցնող մտքերը մնում են չասված: Ռիսկը կարող է ձեզ վտանգի ենթարկել: Սարսափելի վնասներ կարող են առաջանալ ռիսկային գործողություններից: Պարզ ասած, ռիսկը ռիսկից զերծ չէ:

Գեներալ Ջորջ Փաթոնը հայտնի կերպով պնդում էր, որ մենք միշտ պետք է ռիսկային լինենք՝ բավականաչափ ընդունելով հաշվարկված ռիսկերը, որոնք նա բնութագրեց որպես չմտածված լինելուց միանգամայն տարբերվող: Այսպիսով, նախապես մտածեք այն ռիսկերի մասին, որոնք դուք պատրաստ եք կլանել։ Տեղյակ եղեք հայտնի ռիսկերի և անհայտ ռիսկերի հնարավորության մասին: Մարդը պետք է իմանա իր սահմանափակումները, երբ խոսքը վերաբերում է ռիսկի և ռիսկի դիմելուն:

Ես ներկայացնում եմ «ռիսկի» բնույթը և շրջանակը որպես վերլուծականորեն նկարագրելի երևույթի տեսակ, որպեսզի ընդգծեմ, որ երբ խոսքը վերաբերում է AI-ին, աճող անհրաժեշտություն կա պարզելու, թե որքանով է ռիսկային մեր AI-ի ընդլայնվող ընդունումը: AI-ն ռիսկերից զերծ չէ: Ընդհակառակը, AI-ն ներկայացնում է բազմաթիվ զգալի և սարսափելի զանգվածային ռիսկեր, որոնք մեզանից պահանջում են խորը շունչ քաշել և սկսել լրջորեն հաշվարկել, թե որոնք են այդ ռիսկերը: Մենք պետք է լայն բաց լինենք մեր աչքերը և իմանանք արհեստական ​​ինտելեկտի ռիսկերի մասին, քանի որ մենք գլխովին ընկղմվում ենք Արհեստական ​​ինտելեկտը ընդունելու սրընթաց վազքի մեջ:

Խնդրում ենք գիտակցել, որ այսօրվա բոլոր շահագրգիռ կողմերը բախվում են AI-ի ռիսկերին:

Օրինակ՝ AI համակարգ ստեղծող ընկերությունը ռիսկի է դիմում, որ AI-ն ի վերջո կարող է էական վնաս պատճառել նրանց, ովքեր օգտագործում են AI համակարգը: Վնասը կարող է լինել ֆինանսական, հոգեբանական կամ, հնարավոր է, ֆիզիկական վնաս, որը կարող է վիրավորել կամ սպանել մեկին: Ընկերության ղեկավարները, ամենայն հավանականությամբ, օրինական պատասխանատվության կենթարկվեն արհեստական ​​ինտելեկտը մշակելու և թողարկելու համար: Արհեստական ​​ինտելեկտի մշակողները, որոնք ստեղծել են AI, պարտավոր են պատասխանատվության ենթարկվել: Կան բազմաթիվ ձեռքեր, որոնք ներգրավված են արհեստական ​​ինտելեկտի ստեղծման և տարածման մեջ, և նրանք բոլորը կարող են համատեղ պատասխանատու և մեղավոր համարվել այն ամենի համար, ինչ թույլ են տվել, որ դա տեղի ունենա:

Մտածեք արհեստական ​​ինտելեկտի ռիսկը որպես մի բան, որը լողում է երկայնքով և կցվում է այն ամենին, ինչ կապ ունի AI-ի հետ: AI համակարգի օգտատերերը որոշակի ռիսկի են դիմում: Նրանք կարող են վնասվել AI-ի կողմից: Նրանք, ովքեր ստեղծեցին արհեստական ​​ինտելեկտը, որոշակի ռիսկի են դիմում՝ կապված այն վնասակար արդյունքների հետ, որոնք կարող են առաջացնել իրենց AI-ն: Ռիսկը համատարած է AI-ի ոլորտում և, այնուամենայնիվ, հաճախ թվում է, թե ամբողջովին անտեսված է և, ընդհանուր առմամբ, ողբալիորեն թերագնահատված:

Վատ նորությունն այն է, որ բավականաչափ ուշադրություն չի դարձվում արհեստական ​​ինտելեկտի ռիսկերին:

Լավ նորությունն այն է, որ AI ռիսկի ըմբռնման և չափման կենսունակության աճող գնահատումը արագանում է: Որպես այս գիտակցության առողջ նշան՝ մենք կարող ենք հայացք նետել ձևակերպվածին AI ռիսկերի կառավարման շրջանակ (RMF) որը ձեռնարկում է Ստանդարտների և տեխնոլոգիաների ազգային ինստիտուտը (NIST): Ես այստեղ մեջբերումներ կանեմ 17 թվականի մարտի 2022-ի փաստաթղթի նախագծից: Ընթանում են տարբեր հանդիպումներ՝ փաստաթղթի հետագա ճշգրտման և ընդլայնման համար: Կիսաեզրափակված տարբերակը, որը հայտնի է որպես AI RMF 1.0, նախատեսվում է թողարկել 2023 թվականի հունվարին:

Նախքան AI RMF-ի գոյություն ունեցող նախագծին անցնելը, ես կցանկանայի ընդգծել, որ ցանկացած ոք, ով իսկապես հետաքրքրված է AI RMF-ով, պետք է հատկապես հետևի, թե ինչից է բաղկացած AI RMF-ը: Նախագծին վերևում մնալուց բացի, դուք կարող եք նաև հաշվի առնել նախագծային ջանքերին ներգրավվելու և AI Risk Management Framework-ի ձևակերպմանն օգնելը (նշեք, որ NIST-ը ձեռնարկում է հանրային սեմինարներ, որոնք ողջունում են նման ներդրումը): Դուք իսկապես կարող եք օգնել պատմություն կերտել:

Եկեք համառոտ ուսումնասիրենք AI-ի էթիկայի և արհեստական ​​ինտելեկտի ռիսկերի միջև գոյություն ունեցող կարևոր միավորումը: AI ռիսկերը անբաժանելի են Էթիկական AI-ի օգտակարության համար: AI-ի էթիկայի և էթիկական AI-ի իմ շարունակական և ընդարձակ լուսաբանման համար տե՛ս հղումն այստեղ և հղումն այստեղ, ընդամենը մի քանիսը նշելու համար: Դուք կարող եք հեշտությամբ պնդել, որ AI-ի ռիսկը ներառված է AI-ի էթիկայի բոլոր սկզբունքների կամ ցուցումների մեջ: Հարմար մտավոր մոդելը կլինի պատկերացնել մի տեսակ աղյուսակ, որտեղ AI էթիկայի սկզբունքները որպես հորիզոնական տարրեր (սյունակներ) և AI ռիսկը ուղղահայաց բաղադրիչ (տողեր) են, որոնք հյուսվում են հորիզոնականների մեջ և ամբողջ տարածքում:

Խոսելով արհեստական ​​ինտելեկտի ռիսկերի մասին, ի հայտ է գալիս տարբեր նրբերանգներ, թե ինչ ձևի է ակնարկում մեկը: Չնայած AI-ի հռչակված մարդանման հրաշալիքների մասին աղմկահարույց վերնագրերին, այսօր չկա որևէ AI, որը զգայուն լինի: Մենք չգիտենք, թե արդյոք հնարավո՞ր է խելացի AI-ն: Ոչ ոք չի կարող տեղին կանխագուշակել, թե արդյոք մենք կհասնենք խելացի արհեստական ​​ինտելեկտի, և ոչ էլ՝ արդյոք զգայական AI-ն ինչ-որ կերպ հրաշքով ինքնաբերաբար կառաջանա հաշվողական ճանաչողական գերնոր աստղի տեսքով (սովորաբար կոչվում է եզակիություն, տես իմ լուսաբանումը այստեղ. հղումն այստեղ).

AI-ի տեսակը, որի վրա ես կենտրոնանում եմ այստեղ, բաղկացած է ոչ զգայուն AI-ից, որն այսօր ունենք:

Եթե ​​ուզենայինք կատաղի ենթադրություններ անել զգայուն AI, այս քննարկումը կարող է գնալ արմատապես այլ ուղղությամբ: Զգացող AI-ն ենթադրաբար մարդկային որակի կլիներ: Պետք է հաշվի առնել, որ զգայուն AI-ն մարդու ճանաչողական համարժեքն է: Ավելին, քանի որ ոմանք ենթադրում են, որ մենք կարող ենք ունենալ սուպեր-խելացի AI, կարելի է պատկերացնել, որ այդպիսի AI-ն կարող է ավելի խելացի լինել, քան մարդիկ (սուպեր-խելացի AI-ի իմ հետազոտության համար, տես. լուսաբանումն այստեղ).

Եկեք ամեն ինչ ավելի պարզ պահենք և հաշվի առնենք այսօրվա հաշվողական ոչ զգայուն AI-ն:

Գիտակցեք, որ այսօրվա AI-ն ի վիճակի չէ «մտածել» մարդկային մտածողությանը հավասար: Երբ դուք շփվում եք Alexa-ի կամ Siri-ի հետ, խոսակցական կարողությունները կարող են նման լինել մարդկային կարողություններին, բայց իրականությունն այն է, որ այն հաշվողական է և չունի մարդկային ճանաչողություն: AI-ի վերջին դարաշրջանը լայնորեն օգտագործել է մեքենայական ուսուցում (ML) և Deep Learning (DL), որոնք օգտագործում են հաշվողական օրինաչափությունների համընկնումը: Սա հանգեցրել է արհեստական ​​ինտելեկտի համակարգերի, որոնք ունեն մարդու նման հակումների տեսք: Միևնույն ժամանակ, այսօր չկա որևէ արհեստական ​​բանականություն, որն ունի ողջամտության նմանություն և ոչ էլ ունի ուժեղ մարդկային մտածողության ճանաչողական հրաշք:

ML/DL-ը հաշվողական օրինաչափությունների համապատասխանության ձև է: Սովորական մոտեցումն այն է, որ դուք հավաքում եք տվյալներ որոշումներ կայացնելու առաջադրանքի վերաբերյալ: Դուք սնուցում եք տվյալները ML/DL համակարգչային մոդելների մեջ: Այդ մոդելները ձգտում են գտնել մաթեմատիկական օրինաչափություններ: Այդպիսի օրինաչափություններ գտնելուց հետո, եթե գտնվեն, ապա արհեստական ​​ինտելեկտի համակարգը կօգտագործի այդ օրինաչափությունները նոր տվյալների հանդիպելիս: Նոր տվյալների ներկայացումից հետո «հին» կամ պատմական տվյալների վրա հիմնված օրինաչափությունները կիրառվում են ընթացիկ որոշում կայացնելու համար:

Կարծում եմ, դուք կարող եք կռահել, թե ուր է սա գնում: Եթե ​​մարդիկ, ովքեր որոշումներ են կայացնում, իրենց մեջ ներդնում են անբարենպաստ կողմնակալություն, ապա հավանականությունն այն է, որ տվյալներն արտացոլում են դա նուրբ, բայց նշանակալի ձևերով: Մեքենայի ուսուցումը կամ խորը ուսուցման հաշվողական օրինաչափությունների համընկնումը պարզապես կփորձի համապատասխանաբար մաթեմատիկորեն նմանակել տվյալները: Առողջ դատողության կամ AI-ի կողմից ստեղծված մոդելավորման այլ զգալի ասպեկտներ ինքնին չկա:

Ավելին, AI մշակողները նույնպես կարող են չհասկանալ, թե ինչ է կատարվում: ML/DL-ի գաղտնի մաթեմատիկան կարող է դժվարացնել այժմ թաքնված կողմնակալությունների բացահայտումը: Դուք իրավամբ հույս կունենաք և ակնկալում եք, որ AI մշակողները կփորձարկեն պոտենցիալ թաղված կողմնակալության համար, թեև դա ավելի բարդ է, քան կարող է թվալ: Մեծ հավանականություն կա, որ նույնիսկ համեմատաբար լայնածավալ փորձարկումների դեպքում, ML/DL-ի օրինաչափությունների համապատասխանող մոդելներում դեռևս առկա կլինեն կողմնակալություններ:

Դուք կարող եք ինչ-որ չափով օգտագործել աղբի մեջ աղբի դուրս գալու հայտնի կամ տխրահռչակ ասացվածքը: Բանն այն է, որ սա ավելի շատ նման է կողմնակալություններին, որոնք նենգորեն ներարկվում են որպես AI-ի մեջ ընկղմված կողմնակալություններ: AI-ի որոշումների կայացման ալգորիթմը (ADM) աքսիոմատիկորեն ծանրաբեռնված է անհավասարություններով:

Ոչ լավ.

Դուք կարող եք տեղյակ լինել, որ երբ սկսվեց AI-ի վերջին դարաշրջանը, խանդավառության մեծ պոռթկում էր այն, ինչ այժմ ոմանք անվանում են: AI For Good. Ցավոք սրտի, այդ բուռն հուզմունքից հետո մենք սկսեցինք ականատես լինել AI For Bad. Օրինակ, AI-ի վրա հիմնված դեմքի ճանաչման տարբեր համակարգեր բացահայտվել են որպես ռասայական և գենդերային կողմնակալություններ պարունակող, որոնք ես քննարկել եմ հղումն այստեղ.

Դեմ պայքարելու ջանքերը AI For Bad ակտիվորեն ընթանում են։ Բացի աղմկոտ իրավական Սխալ արարքները զսպելու ձգտումները, կա նաև զգալի մղում դեպի AI էթիկան ընդունելու՝ AI-ի ստորությունը շտկելու համար: Հասկացությունը կայանում է նրանում, որ մենք պետք է ընդունենք և հաստատենք Արհեստական ​​ինտելեկտի էթիկական հիմնական սկզբունքները Արհեստական ​​ինտելեկտի զարգացման և ներդրման համար՝ դա անելով նվազեցնելու համար AI For Bad և միաժամանակ ազդարարելով և խթանելով նախընտրելիը AI For Good.

Համապատասխան հասկացության համաձայն՝ ես AI-ն օգտագործելու ջատագովն եմ՝ որպես արհեստական ​​ինտելեկտի դժբախտությունների լուծման մաս՝ կրակը կրակի հետ պայքարելով այդ մտածելակերպով: Օրինակ՝ մենք կարող ենք ներդնել Արհեստական ​​ինտելեկտի էթիկական բաղադրիչները արհեստական ​​ինտելեկտի համակարգում, որը կհետևի, թե ինչպես է AI-ի մնացած անդամներն անում բաներ և այդպիսով իրական ժամանակում պոտենցիալ կերպով կբռնեն ցանկացած խտրական ջանք, տես իմ քննարկումը. հղումն այստեղ. Մենք կարող ենք նաև ունենալ AI-ի առանձին համակարգ, որը հանդես է գալիս որպես AI Էթիկայի մոնիտոր: Արհեստական ​​ինտելեկտի համակարգը ծառայում է որպես վերահսկիչ՝ հետևելու և հայտնաբերելու, թե երբ է մեկ այլ AI գնում ոչ էթիկական անդունդ (տե՛ս նման հնարավորությունների իմ վերլուծությունը այստեղ՝ հղումն այստեղ).

Եկեք համառոտ անդրադառնանք էթիկական արհեստական ​​ինտելեկտի ընդհանուր կանոններից մի քանիսին, որոնք ես նախկինում քննարկել եմ իմ սյունակներում՝ ցույց տալու համար, թե ինչ պետք է լինի կենսական նշանակություն ունեցող որևէ մեկի և բոլորի համար, ովքեր արհեստագործում են, մշակում կամ օգտագործում են AI: Այնուհետև մենք կանդրադառնանք AI-ի ռիսկերի թեմային:

Ինչպես նշվում է Վատիկանի կողմից Հռոմը AI-ի էթիկայի կոչ է անում և ինչպես ես անդրադարձել եմ հղումն այստեղ, սրանք են նրանց բացահայտված AI-ի էթիկայի վեց հիմնական սկզբունքները.

  • Թափանցիկություն. Սկզբունքորեն, AI համակարգերը պետք է բացատրելի լինեն:
  • Ներառումը. Պետք է հաշվի առնել բոլոր մարդկանց կարիքները, որպեսզի բոլորը կարողանան օգուտ քաղել, և բոլոր անհատներին առաջարկել իրենց դրսևորվելու և զարգանալու լավագույն պայմանները:
  • Պատասխանատվություն ` Նրանք, ովքեր նախագծում և կիրառում են AI-ի օգտագործումը, պետք է գործեն պատասխանատվությամբ և թափանցիկությամբ:
  • Անաչառություն. Մի ստեղծեք կամ մի գործեք ըստ կողմնակալության՝ դրանով իսկ պաշտպանելով արդարությունն ու մարդկային արժանապատվությունը:
  • հուսալիություն: AI համակարգերը պետք է կարողանան հուսալիորեն աշխատել:
  • Անվտանգություն և գաղտնիություն. AI համակարգերը պետք է ապահով աշխատեն և հարգեն օգտատերերի գաղտնիությունը:

Ինչպես նշված է ԱՄՆ պաշտպանության նախարարության (DoD) կողմից իրենց Արհեստական ​​ինտելեկտի օգտագործման էթիկական սկզբունքներ և ինչպես ես անդրադարձել եմ հղումն այստեղ, սրանք են AI-ի նրանց վեց հիմնական էթիկայի սկզբունքները.

  • Պատասխանատու: DoD անձնակազմը կկիրառի դատողության և խնամքի համապատասխան մակարդակներ՝ միաժամանակ պատասխանատու մնալով AI կարողությունների զարգացման, տեղակայման և օգտագործման համար:
  • Արդար: Դեպարտամենտը կանխամտածված քայլեր կձեռնարկի՝ նվազագույնի հասցնելու AI կարողությունների մեջ չնախատեսված կողմնակալությունը:
  • Հետագծելի: Դեպարտամենտի AI կարողությունները կզարգացվեն և կտեղակայվեն այնպես, որ համապատասխան անձնակազմը համապատասխան պատկերացում ունենա AI-ի հնարավորությունների համար կիրառելի տեխնոլոգիայի, զարգացման գործընթացների և գործառնական մեթոդների մասին, ներառյալ թափանցիկ և աուդիտի ենթարկվող մեթոդոլոգիաները, տվյալների աղբյուրները և նախագծման ընթացակարգն ու փաստաթղթերը:
  • Վստահելի: Դեպարտամենտի արհեստական ​​ինտելեկտի հնարավորությունները կունենան հստակ, հստակորեն սահմանված կիրառումներ, և նման հնարավորությունների անվտանգությունը, անվտանգությունը և արդյունավետությունը ենթակա կլինեն փորձարկման և հավաստիացման՝ սահմանված օգտագործման շրջանակում դրանց ողջ կյանքի ընթացքում:
  • Կառավարվող. Դեպարտամենտը նախագծելու և նախագծելու է AI-ի հնարավորությունները՝ իրականացնելու իրենց նախատեսված գործառույթները՝ միաժամանակ ունենալով անցանկալի հետևանքները հայտնաբերելու և խուսափելու, ինչպես նաև չնախատեսված վարք դրսևորող տեղակայված համակարգերը անջատելու կամ անջատելու կարողություն:

Ես նաև քննարկել եմ AI էթիկայի սկզբունքների տարբեր կոլեկտիվ վերլուծություններ, ներառյալ հետազոտողների կողմից մշակված մի շարք, որոնք ուսումնասիրել և խտացրել են բազմաթիվ ազգային և միջազգային AI էթիկայի դրույթների էությունը «Արհեստական ​​ինտելեկտի էթիկայի գլոբալ լանդշաֆտը» վերնագրով հոդվածում (հրատարակված): մեջ բնություն), և որ իմ լուսաբանումն ուսումնասիրում է հղումն այստեղ, որը հանգեցրեց այս հիմնական ցուցակին.

  • Թափանցիկություն
  • Արդարություն և արդարություն
  • Ոչ չարամտություն
  • պատասխանատվություն
  • Գաղտնիության
  • Բարեգործություն
  • Ազատություն և ինքնավարություն
  • Վստահեք
  • Կայունություն
  • Արժանապատվություն
  • Համերաշխություն

Ինչպես կարող եք ուղղակիորեն կռահել, այս սկզբունքների հիմքում ընկած առանձնահատկությունները պարզելու փորձը կարող է չափազանց դժվար լինել: Առավել եւս, որ այդ լայն սկզբունքները լիովին շոշափելի և բավականաչափ մանրամասն ինչ-որ բանի վերածելու ջանքերը, որոնք կարող են օգտագործվել արհեստական ​​ինտելեկտի համակարգեր ստեղծելու ժամանակ, նույնպես դժվար է կոտրել: Հեշտ է ընդհանուր առմամբ ձեռքով պարզել, թե ինչ են AI-ի էթիկայի կանոնները և ինչպես պետք է դրանք ընդհանուր առմամբ պահպանվեն, մինչդեռ AI կոդավորման մեջ շատ ավելի բարդ իրավիճակ է, որը պետք է լինի իրական ռետինը, որը համապատասխանում է ճանապարհին:

AI-ի էթիկայի սկզբունքները պետք է օգտագործվեն արհեստական ​​ինտելեկտի մշակողների կողմից, ինչպես նաև նրանք, ովքեր կառավարում են AI-ի զարգացման ջանքերը, և նույնիսկ նրանք, ովքեր, ի վերջո, կիրառում և պահպանում են AI համակարգերը: Բոլոր շահագրգիռ կողմերը AI-ի զարգացման և օգտագործման ողջ ցիկլի ընթացքում համարվում են Էթիկական AI-ի հաստատված նորմերին պահպանելու շրջանակում: Սա կարևոր կարևոր կետ է, քանի որ սովորական ենթադրությունն այն է, որ «միայն կոդավորողները» կամ նրանք, ովքեր ծրագրավորում են AI-ն, ենթակա են հավատարիմ մնալու AI-ի էթիկայի հասկացություններին: Ինչպես արդեն նշվեց, AI-ի մշակման և դաշտի մշակման համար անհրաժեշտ է գյուղ, և որի համար ամբողջ գյուղը պետք է տիրապետի և պահպանի AI-ի էթիկայի կանոնները:

Ես այստեղ ավելի վաղ նշեցի, որ AI-ի ռիսկը մի հարց է, որը հատվում է AI-ի էթիկայի բոլոր սկզբունքներով: Որպեսզի օգնեք ամբողջությամբ ցուցադրել այդ տեսքը, հաշվի առեք AI-ի էթիկայի հիմնական սկզբունքների վերաձևակերպումը, որպեսզի լուսաբանվի AI ռիսկի հարցը.

  • Թափանցիկություն և հարակից AI ռիսկեր
  • Արդարություն և արդարություն և հարակից AI ռիսկերը
  • Ոչ չարամտություն և AI-ի հետ կապված ռիսկեր
  • Պատասխանատվություն և հարակից AI ռիսկեր
  • Գաղտնիությունը և հարակից AI ռիսկերը
  • Շահավետություն և հարակից AI ռիսկեր
  • Ազատություն և ինքնավարություն և հարակից AI ռիսկերը
  • Վստահություն և AI-ի հետ կապված ռիսկեր
  • Կայունություն և AI-ի հետ կապված ռիսկեր
  • Արժանապատվությունը և AI-ի հետ կապված ռիսկերը
  • Համերաշխություն և AI-ի հետ կապված ռիսկեր

Նախքան այս փաթեթավորումը բացելը, եկեք տեսնենք, թե ինչ է նշանակում «ռիսկ» բառը:

Ես սա ասում եմ, քանի որ ռիսկը որպես բառակապակցություն տարբեր իմաստներ ունի՝ կախված նրանից, թե ում հետ ես խոսում: Այս կողմն ուսումնասիրելիս ես կներկայացնեմ նաև մեկ այլ NIST փաստաթուղթ, որը դուք պետք է ուսումնասիրեք, եթե պատրաստվում եք մտնել AI RMF, մասնավորապես, որ կա NIST ռիսկերի կառավարման ընդհանուր շրջանակ (RMF), որն ընդգրկում է լայնորեն Տեղեկատվական տեխնոլոգիաների համակարգերը և ռիսկերը: կառավարումը՝ որոշ ժամանակ աշխատելով։ AI RMF-ն, ըստ էության, ավելի լայն RMF-ի օրինակն է (կարող եք լկտիորեն ասել, որ AI RMF-ը բոլոր պատմված RMF-ի որդին կամ դուստրն է):

Համաձայն ընդհանուր NIST RMF-ի, ահա ռիսկի սահմանումը. «Ռիսկը չափում է, թե որքանով է կազմակերպությանը սպառնում պոտենցիալ հանգամանքներից կամ իրադարձություններից: Ռիսկը նաև կախված է այն անբարենպաստ ազդեցություններից, որոնք առաջանում են, եթե տեղի ունենա հանգամանքը կամ իրադարձությունը, և տեղի ունենալու հավանականությունը: Ռիսկի տեսակները ներառում են ծրագրի ռիսկը. համապատասխանության/կարգավորման ռիսկ; ֆինանսական ռիսկ; իրավական ռիսկ; առաքելություն/բիզնես ռիսկ; քաղաքական ռիսկ; անվտանգության և գաղտնիության ռիսկ (ներառյալ մատակարարման շղթայի ռիսկը); նախագծի ռիսկ; հեղինակության ռիսկ; անվտանգության ռիսկ; ռազմավարական պլանավորման ռիսկ»:

NIST AI RMF-ի նախագիծը ռիսկը սահմանում է այսպես. «Ռիսկը չափում է, թե որքանով է կազմակերպությունը բացասաբար ազդում պոտենցիալ հանգամանքից կամ իրադարձությունից: Սովորաբար, ռիսկը 1) անբարենպաստ ազդեցությունների ֆունկցիա է, որոնք կարող են առաջանալ, եթե այդ հանգամանքը կամ իրադարձությունը տեղի ունենա. և 2) առաջացման հավանականությունը: Սուբյեկտները կարող են լինել անհատներ, խմբեր կամ համայնքներ, ինչպես նաև համակարգեր, գործընթացներ կամ կազմակերպություններ»:

Ավելի խորը փորելով և գուցե պղտորելով ջրերը՝ Ստենֆորդի փիլիսոփայության հանրագիտարան հեշտությամբ նշում է, որ ռիսկը հաճախ արտահայտվում է հինգ տարբեր ենթատեքստերով.

1) Ռիսկը անցանկալի իրադարձություն է, որը կարող է տեղի ունենալ կամ չլինել

2) ռիսկն է առաջացնել անցանկալի իրադարձության մասին, որը կարող է տեղի ունենալ կամ չլինել

3) ռիսկն է հավանականություն անցանկալի իրադարձության մասին, որը կարող է տեղի ունենալ կամ չլինել

4) ռիսկն է վիճակագրական ակնկալիքների արժեքը անցանկալի իրադարձության մասին, որը կարող է տեղի ունենալ կամ չլինել

5) Ռիսկը այն փաստն է, որ որոշում է կայացվում հայտնի հավանականությունների պայմաններում

Առայժմ, եկեք կոլեգիալ կերպով համաձայնվենք, որ այս քննարկման ընթացքում մենք պատրաստվում ենք ընդհանրացված կերպով վերաբերվել այն գաղափարին, թե ինչ է ռիսկը, համաձայն վերոհիշյալ NIST RMF և NIST AI RMF սահմանումների և չխրված լինել ոլորապտույտ տատանումների վրա: Այդ դեպքում, ես վստահ եմ, որ դուք բավարարված եք իմ վերը նշված հիմքում, որ առայժմ կարգավորել եմ AI-ի համատեքստային նշանակությունը և ռիսկի նշանակությունը:

Արհեստական ​​ինտելեկտի ռիսկերի կառավարման շրջանակը արհեստական ​​ինտելեկտի ռիսկերը բացահայտելու միջոց է, հուսով եմ՝ այդ ռիսկերը կառավարելու հետ մեկտեղ:

Ըստ AI RMF-ի, ահա AI Ռիսկերի կառավարման շրջանակի պաշտոնական նպատակը կամ ձգտումը, որը ձևակերպվում է. «AI Risk Management Framework (AI RMF, կամ Framework) կարող է լուծել AI համակարգերին բնորոշ մարտահրավերները: Այս AI RMF-ն նախնական փորձ է նկարագրելու, թե ինչպես են AI-ի վրա հիմնված համակարգերի ռիսկերը տարբերվում այլ տիրույթներից և խրախուսելու և զինելու արհեստական ​​ինտելեկտի տարբեր շահագրգիռ կողմերի՝ այդ ռիսկերը նպատակաուղղված լուծելու համար: Այս կամավոր շրջանակն ապահովում է ճկուն, կառուցվածքային և չափելի գործընթաց՝ AI-ի ռիսկերը լուծելու համար AI-ի կյանքի ցիկլի ընթացքում՝ առաջարկելով ուղեցույց վստահելի և պատասխանատու AI-ի մշակման և օգտագործման համար»:

NIST-ը նաև գիտակցում է, որ AI RMF-ը, որպես առաջարկվող ստանդարտ, պետք է հեշտությամբ օգտագործելի լինի, թարմացվի տեխնոլոգիայի առաջընթացի հետ մեկտեղ և ներառի այլ հիմնական չափանիշներ. Արհեստական ​​ինտելեկտի համակարգերի արտադրանքի, գործընթացների, կազմակերպությունների, համակարգերի և հասարակությունների ներդրման արդյունքում: Կազմակերպությունները, որոնք կառավարում են ձեռնարկության AI ռիսկը, նույնպես պետք է նկատի ունենան ավելի մեծ հասարակական AI նկատառումներն ու ռիսկերը: Եթե ​​ռիսկերի կառավարման շրջանակը կարող է օգնել արդյունավետ կերպով լուծել և կառավարել AI ռիսկը և բացասական ազդեցությունները, դա կարող է հանգեցնել ավելի վստահելի AI համակարգերի»:

Ձեզանից ոմանք, ովքեր մի փոքր թերահավատ են, կարող են կասկածել, թե ինչու է մեզ անհրաժեշտ AI RMF-ն՝ ընդդեմ պարզապես ապավինելու ընդհանրացված RMF-ին, որն արդեն հասանելի է: Արդյո՞ք մենք պարզապես նորից չենք հայտնագործում անիվը: Պատասխանը ոչ է, մենք անիվը նորից չենք հորինում: Անիվը հարմարեցված է որոշակի կարիքների համար: Խելամիտ մարդը հավանաբար կընդունի, որ կան տարբեր տեսակի ձևերի և չափերի անիվներ։ Ինքնաթիռի անիվը, անկասկած, միանգամայն տարբերվում է մանկական եռանիվ հեծանվի վրա գտնվող անիվից։ Իհարկե, նրանք երկուսն էլ անիվներ են, բայց դրանք նախագծված են տարբեր կերպ, և, հետևաբար, ունեն տարբեր բնութագրեր և իրավամբ կարող են նաև հստակ ուսումնասիրվել:

AI RMF փաստաթուղթն արտահայտում է նմանատիպ տրամադրություն. որը ներառում է կարևոր մտահոգություններ՝ կապված կիբերանվտանգության, գաղտնիության, անվտանգության և ենթակառուցվածքների հետ: Այս շրջանակը նպատակ ունի լրացնել այն բացերը, որոնք կապված են հատուկ AI-ի հետ»:

AI RMF նախագծի գոյություն ունեցող տարբերակում նրանք սահմանում են չորս շահագրգիռ խմբեր.

  • AI համակարգի շահագրգիռ կողմերը
  • Օպերատորներ և գնահատողներ
  • Արտաքին շահագրգիռ կողմեր
  • Ընդհանուր հանրային

Արհեստական ​​ինտելեկտի ռիսկի վերաբերյալ ուշադրության մեծ մասը սովորաբար ուղղվում է AI համակարգի շահագրգիռ կողմերին: Դա իմաստ ունի: Սրանք այն շահագրգիռ կողմերն են, որոնք ներգրավված են AI-ի ստեղծման, նախագծման, կառուցման և դաշտի ստեղծման մեջ: Բացի այդ, մենք կարող ենք ներառել նրանց, ովքեր ձեռք են բերում կամ արտոնագրում են AI-ն օգտագործման համար: Մենք հակված ենք այդ շահագրգիռ կողմերին դիտարկել որպես տեսանելի կողմեր, որոնք մեծ ջանքեր են գործադրել արհեստական ​​ինտելեկտի համակարգի ստեղծման գործում և նպաստել դրա տեղակայմանը:

Հնարավոր է, որ դուք հավասարապես չմտածեիք կամ չհամարեիք AI օպերատորների և գնահատողների մասին: Ինչպես ասվում է AI RMF-ում, AI օպերատորներն ու գնահատողները անում են այսպես. «Օպերատորներն ու գնահատողները ապահովում են համակարգի կատարողականի մոնիտորինգ և պաշտոնական/ոչ պաշտոնական թեստ, գնահատում, վավերացում և ստուգում (TEVV)՝ կապված ինչպես տեխնիկական, այնպես էլ սոցիալ-տեխնիկական պահանջների հետ: » Դրանք կարևոր են AI-ի համար, ինչպես նաև AI-ի ռիսկերի շրջանակում:

Արտաքին շահագրգիռ կողմերը կներառեն կազմակերպությունների լայն շրջանակ՝ ներառյալ առևտրային խմբերը, շահերի պաշտպանության խմբերը, քաղաքացիական հասարակության կազմակերպությունները և այլն: Լայն հասարակությունը բաղկացած է սպառողներից և այլոք, ովքեր զգում են անբարենպաստ AI-ի հետ կապված ռիսկը:

Դուք կարող եք մտածել, թե որքան ռիսկ է տանելի, երբ խոսքը վերաբերում է AI- ին:

Կներեք, որ չկա որևէ որոշակի թիվ կամ նշանակված արժեք, որը մենք կարող ենք տալ տանելի կամ ընդունելի ռիսկի չափին, որը մենք կարող ենք արժեքավոր կամ հասարակության կողմից թույլատրելի համարել: Ձեզանից նրանց համար, ովքեր ցանկանում են ստանդարտացված թվային նշում, դուք պետք է մեղմացնեք այդ ցանկությունը AI RMF նախագծի այս նշանավոր կետով. «AI RMF-ը չի սահմանում ռիսկի շեմեր կամ արժեքներ: Ռիսկերի հանդուրժողականությունը՝ ռիսկի մակարդակը կամ անորոշության աստիճանը, որն ընդունելի է կազմակերպությունների կամ հասարակության համար, համատեքստում և գործածության համար է հատուկ»:

AI RMF-ի կողմից առաջարկված մեթոդաբանությունը՝ AI ռիսկը ուսումնասիրելու և կառավարելու համար, ներկայացված է որպես հիմնական քայլերից բաղկացած՝ Քարտեզ, Չափում և Կառավարում: Քարտեզ գործառույթը սահմանում է AI համակարգի ռիսկերը: Measure ֆունկցիան ներառում է AI ռիսկի հետևում և վերլուծություն: «Կառավարել» ֆունկցիան օգտագործում է «Քարտեզ» և «Չափել» գործառույթները՝ փորձելով նվազագույնի հասցնել բացասական ազդեցությունները՝ միաժամանակ առավելագույնի հասցնելով AI-ի առավելությունները: Համաձայն AI RMF-ի նախագծի՝ ստանդարտի հետագա տարբերակները կներառեն Գործնական ուղեցույց՝ որպես ուղեկից՝ ցուցադրելու AI RMF-ի օգտագործման օրինակներ և պրակտիկա:

Ավելի լայն NIST RMF ստանդարտում կա յոթ քայլերի զարդարված հավաքածու, որոնք համընկնում են ՏՏ և համակարգերի ռիսկերի կառավարման համապարփակ ջանքերի իրականացման հետ: Ես գտա այդ յոթ քայլերը, որոնք հարմար են հիշելու համար, այդ թվում՝ արհեստական ​​ինտելեկտի համակարգեր կառուցելիս և տեղակայելիս:

Յոթ քայլերն են (մեջբերում NIST RMF ստանդարտից).

1. Պատրաստվեք իրականացնել RMF-ը կազմակերպության և համակարգի մակարդակի տեսանկյունից՝ սահմանելով անվտանգության և գաղտնիության ռիսկերի կառավարման համատեքստ և առաջնահերթություններ:

2. Դասակարգել համակարգը և համակարգի կողմից մշակված, պահպանված և փոխանցված տեղեկատվությունը կորստի ազդեցության վերլուծության հիման վրա:

3. Ընտրեք վերահսկման սկզբնական փաթեթը համակարգի համար և անհրաժեշտության դեպքում հարմարեցրեք վերահսկումները՝ ռիսկի գնահատման հիման վրա ռիսկը ընդունելի մակարդակի նվազեցնելու համար:

4. Իրականացնել հսկիչները և նկարագրել, թե ինչպես են վերահսկվում վերահսկիչները համակարգում և դրա գործող միջավայրում:

5. Գնահատեք վերահսկողությունը՝ որոշելու համար, թե արդյոք վերահսկումները ճիշտ են իրականացվում, գործում են ըստ նախատեսվածի և տալիս են ցանկալի արդյունքներ՝ կապված անվտանգության և գաղտնիության պահանջների բավարարման հետ:

6. Լիազորել համակարգը կամ ընդհանուր հսկողությունը՝ հիմնվելով այն որոշման վրա, որ կազմակերպչական գործառնությունների և ակտիվների, անհատների, այլ կազմակերպությունների և ազգի համար ռիսկը ընդունելի է:

7. Շարունակական հիմունքներով մշտադիտարկել համակարգը և հարակից հսկողությունը՝ ներառելով հսկողության արդյունավետության գնահատումը, գործունեության համակարգի և միջավայրի փոփոխությունների փաստաթղթավորումը և ռիսկերի գնահատման իրականացումը:

Այս ծանրակշիռ քննարկման այս պահին ես գրազ կգամ, որ դուք ցանկանում եք որոշ պատկերավոր օրինակներ, որոնք կարող են ցույց տալ AI-ի ռիսկերի բնույթը: Կա մի հատուկ և վստահաբար սիրված օրինակների հավաքածու, որն ինձ հոգեհարազատ է: Տեսեք, որպես AI-ի փորձագետ, ներառյալ էթիկական և իրավական հետևանքները, ինձ հաճախ խնդրում են բացահայտել իրատեսական օրինակներ, որոնք ցույց են տալիս AI-ի էթիկայի երկընտրանքները, որպեսզի թեմայի տեսական բնույթն ավելի հեշտ ըմբռնվի: Ամենաոգեշնչող ոլորտներից մեկը, որը վառ կերպով ներկայացնում է այս էթիկական արհեստական ​​ինտելեկտի խնդիրը, AI-ի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելն է: Սա կծառայի որպես հարմար օգտագործման դեպք կամ օրինակ՝ թեմայի շուրջ լայն քննարկման համար:

Ահա մի ուշագրավ հարց, որի մասին արժե մտածել. Արդյո՞ք արհեստական ​​ինտելեկտի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելը որևէ բան լուսաբանում է արհեստական ​​ինտելեկտի ռիսկերի մասին, և եթե այո, ի՞նչ է սա ցույց տալիս:

Թույլ տվեք մի պահ բացել հարցը:

Նախ, նշեք, որ իրական ինքնակառավարվող մեքենայի մեջ մարդ վարորդ չկա: Հիշեք, որ իսկական ինքնակառավարվող մեքենաները վարում են AI վարորդական համակարգի միջոցով: Ղեկին մարդ վարորդի կարիք չկա, մեքենան վարելու համար մարդ չկա: Ինքնավար տրանսպորտային միջոցների (ԱՎ) և հատկապես ինքնակառավարվող մեքենաների իմ լայնածավալ և շարունակական լուսաբանման համար տե՛ս. հղումն այստեղ.

Ես կցանկանայի ավելի պարզաբանել, թե ինչ է նշանակում, երբ ես վերաբերում եմ իրական ինքնակառավարվող մեքենաներին:

Հասկանալով ինքնակառավարվող մեքենաների մակարդակները

Որպես պարզաբանում, իսկական ինքնակառավարվող մեքենաներն այն մեքենաներն են, որտեղ AI-ն ամբողջությամբ ինքնուրույն է վարում մեքենան, և վարորդական առաջադրանքի ընթացքում մարդկային օգնություն չի ցուցաբերվում:

Այս առանց վարորդի տրանսպորտային միջոցները համարվում են 4-րդ և 5-րդ մակարդակներ (տե՛ս իմ բացատրությունը այս հղումը Մականուն), մինչդեռ մեքենան, որը մարդկային վարորդից պահանջում է համատեղ ջանքեր գործադրել, սովորաբար դիտարկվում է 2-րդ կամ 3-րդ մակարդակում: Մեքենաները, որոնք համատեղ կատարում են վարորդական առաջադրանքը, նկարագրվում են որպես կիսաինքնավար և սովորաբար պարունակում են մի շարք մեքենաներ: ավտոմատացված հավելումներ, որոնք կոչվում են ADAS (Վարորդների օգնության առաջադեմ համակարգեր):

5-րդ մակարդակում դեռ իրական ինքնակառավարվող մեքենա չկա, և մենք դեռ չգիտենք, թե արդյոք դա հնարավոր կլինի հասնել, և որքան ժամանակ կպահանջվի այնտեղ հասնելու համար:

Միևնույն ժամանակ, 4-րդ մակարդակի ջանքերը աստիճանաբար փորձում են որոշակի ձգողականություն ձեռք բերել՝ անցնելով շատ նեղ և ընտրովի հանրային ճանապարհային փորձարկումներ, թեև հակասություններ կան այն հարցի շուրջ, թե արդյոք այս թեստավորումն ինքնին պետք է թույլատրվի (մենք բոլորս փորձի մեջ կյանքի կամ մահվան ծովախոզուկներ ենք: ոմանք պնդում են, որ տեղի է ունենում մեր մայրուղիներում և ճանապարհների վրա, տես իմ լուսաբանումը այս հղումը Մականուն).

Քանի որ կիսաավտոմեքենաները մարդկային վարորդ են պահանջում, այդպիսի մեքենաների ընդունումը չի տարբերվի սովորական տրանսպորտային միջոցներից վարվելուց, հետևաբար, այս թեմայի շուրջ դրանց մասին ծածկելու համար ամենևին էլ նոր բան չկա (չնայած, ինչպես կտեսնեք մի ակնթարթում ընդհանուր առմամբ կիրառվում են հաջորդ կետերը):

Կիսաանվտանգ ավտոմեքենաների համար կարևոր է, որ հասարակությունը պետք է նախազգուշացվի վերջին շրջանում ի հայտ եկած անհանգստացնող կողմի մասին, մասնավորապես այն, որ չնայած այն մարդկային վարորդներին, ովքեր շարունակում են փակցնել իրենց տեսահոլովակները իրենց մասին, քնում են «Level 2» կամ «Level 3» մեքենայի ղեկին: , մենք բոլորս պետք է խուսափենք ապակողմնորոշվելուց `հավատալով, որ վարորդը կարող է իրենց ուշադրությունը հանել վարորդական առաջադրանքից` կիսաավտոմեքենան վարելիս:

Դուք պատասխանատու կողմն եք տրանսպորտային միջոցի վարման գործողությունների համար, անկախ նրանից, թե որ ավտոմատացումը կարող է տեղափոխվել 2-րդ մակարդակի կամ 3-րդ մակարդակի:

Ինքնավար մեքենաներ և AI ռիսկեր

4-րդ և 5-րդ մակարդակների իսկական ինքնագնաց տրանսպորտային միջոցների համար վարորդական գործին չի մասնակցի մարդկային վարորդ:

Բոլոր գրավյալները ուղևորներ են լինելու:

AI- ն վարում է վարումը:

Անմիջապես քննարկելու մի ասպեկտ ենթադրում է այն փաստը, որ այսօր AI- ի վարման համակարգերում ներգրավված AI- ն զգայուն չէ: Այլ կերպ ասած, AI- ն ընդհանուր առմամբ համակարգչային ծրագրավորման և ալգորիթմների հավաքածու է, և, անկասկած, ի վիճակի չէ տրամաբանել այնպես, ինչպես մարդիկ կարող են:

Ինչու՞ է այս հավելյալ շեշտադրումը արհեստական ​​ինտելեկտի մասին զգացմունքային չէ:

Քանի որ ես ուզում եմ ընդգծել, որ երբ քննարկում եմ AI շարժիչ համակարգի դերը, ես մարդկային որակներ չեմ վերագրում AI- ին: Խնդրում ենք տեղյակ լինել, որ այս օրերին շարունակական և վտանգավոր միտում կա AI- ն մարդաբանելու համար: Ըստ էության, մարդիկ մարդկային նման զգացողություն են հատկացնում այսօրվա AI- ին, չնայած անհերքելի և անառարկելի փաստին, որ այդպիսի AI դեռ գոյություն չունի:

Այդ պարզաբանմամբ դուք կարող եք պատկերացնել, որ AI վարելու համակարգը բնիկ ինչ-որ կերպ «չի իմանա» վարման կողմերի մասին: Վարորդությունն ու դրա հետևանքները պետք է ծրագրավորվեն որպես ինքնակառավարվող մեքենայի սարքավորումների և ծրագրակազմի մաս:

Եկեք սուզվենք այն անհամար ասպեկտների մեջ, որոնք սկսում են խաղալ այս թեմայի շուրջ:

Նախ, կարևոր է գիտակցել, որ ոչ բոլոր ինքնակառավարվող AI մեքենաները նույնն են: Յուրաքանչյուր ավտոարտադրող և ինքնակառավարվող տեխնոլոգիական ընկերություն իր մոտեցումն է ցուցաբերում ինքնակառավարվող մեքենաների ստեղծման հարցում: Որպես այդպիսին, դժվար է լայնածավալ հայտարարություններ անել այն մասին, թե ինչ կանեն կամ չեն անեն AI վարորդական համակարգերը:

Ավելին, ամեն անգամ, երբ նշվում է, որ արհեստական ​​ինտելեկտի կառավարման համակարգը որոշակի բան չի անում, դա հետագայում կարող է շրջանցվել այն մշակողների կողմից, որոնք իրականում ծրագրավորում են համակարգիչը հենց դա անելու համար: Քայլ առ քայլ, արհեստական ​​ինտելեկտի շարժիչ համակարգերը աստիճանաբար բարելավվում և ընդլայնվում են: Այսօր գոյություն ունեցող սահմանափակումն այլևս գոյություն չի ունենա համակարգի ապագա կրկնության կամ տարբերակի դեպքում:

Հավատում եմ, որ բավականաչափ նախազգուշացում է ապահովում ՝ հիմք դնելու այն, ինչի մասին ես պատրաստվում եմ պատմել:

Մենք հիմա պատրաստ ենք խորը ուսումնասիրել ինքնակառավարվող մեքենաները և էթիկական AI հնարավորությունները, որոնք ենթադրում են AI ռիսկերի բնույթ:

Որպես մարդ վարորդ՝ դուք մանրակրկիտ մշակված ռիսկի հաշվիչ եք:

Ճիշտ է, երբ դուք մեքենա եք վարում, իրական ժամանակում ձեզ հանձնարարված է պարզել այն ռիսկերը, որ հետիոտնը կարող է հանկարծակի նետվել փողոց, կամ որ ձեր առջևից մեքենան անսպասելիորեն կխփի իր արգելակները: Մեքենա վարելու իրավիճակներում, որոնց մենք բախվում ենք, հստակորեն մշուշոտ և մշուշոտություն կա:

Դուք փորձում եք լավագույնս գնահատել ռիսկերը, որոնք կապված են մեքենա վարելու յուրաքանչյուր պահի, և այնուհետև պետք է կրեք ձեր գնահատականների հետևանքները: Ցավոք սրտի, միայն Միացյալ Նահանգներում տարեկան մոտ 40,000 ավտովթարի զոհ կա և մոտ 2.5 միլիոն վնասվածքներ են ստացել (տե՛ս նման վիճակագրության իմ հավաքածուն. հղումն այստեղ) Երբեմն դուք իրերը բավականին մոտ եք կտրում և ձեր ատամների մաշկից փախչում եք վատ իրավիճակից: Ուրիշ անգամ դուք սխալ եք գնահատում և բախվում ինչ-որ բանի կամ բախվում եք ինչ-որ մեկի հետ:

Դուք սովորաբար մտավոր թարմացնում եք ռիսկի ասպեկտները, քանի որ շարժիչ ջանքերն ընթացքի մեջ են: Պատկերացրեք մի պարզ դեպք, երբ մի խումբ երեխաներ ցանկանում են քայլել: Սկզբում դուք կարող եք գնահատել նրանց jaywalking-ի վտանգը և հարվածել որպես բավականին բարձր: Բայց հետո դուք նկատում եք, որ մոտակայքում գտնվող մեծահասակը ստիպում է նրանց չքայլել, և այդպիսով երեխաների փողոց ներխուժելու և վթարի ենթարկվելու ռիսկը նվազում է: Այնուամենայնիվ, նշեք, որ ռիսկը չի իջել զրոյական ռիսկի, քանի որ նրանք դեռ կարող են ընտրել ճանապարհի մուտքը:

Ավտոմոբիլային ոլորտում կա ռիսկի հետ կապված հայտնի ստանդարտ, որը հայտնի է որպես Ավտոմոբիլային անվտանգության ամբողջականության մակարդակի (ASIL) ռիսկերի դասակարգման սխեման, որը հիմնված է ISO 26262 անունով պաշտոնական փաստաթղթի վրա: -կողմնորոշված ​​ռիսկի հետ կապված նկատառումներ հղումն այստեղ ինչպես նաեւ հղումն այստեղ.

Մեքենա վարելիս ռիսկը որոշելիս ահա մի հավասարում, որը հնարավորություն է տալիս ձեր ձեռքերը մոտեցնել ռիսկի ասպեկտները.

  • Ռիսկ = Խստություն x (Լուսավորություն x վերահսկելիություն)

Եկեք ուսումնասիրենք բանաձևը և դրա բաղադրիչները:

Կարևոր է հաշվի առնել խստությունը՝ մեքենա վարելիս ռիսկը պարզելիս, քանի որ դուք կարող եք շարժվել դեպի աղյուսե պատ, որը կհանգեցնի ձեզ և ձեր ուղևորների վնասվածքներին կամ սպանություններին (հատկապես բարձր ծանրության արդյունք)՝ խփելով գազավորված ըմպելիքի որոշ տարաների վրա մայրուղու վրա։ լինել համեմատաբար ցածր խստությամբ: Ֆորմալ կերպով ISO ստանդարտի համաձայն, ծանրությունը պոտենցիալ վնասի չափանիշ է, որը կարող է առաջանալ և դասակարգվում է (S0) Առանց վնասվածքների, (S1) Թեթև և միջին ծանրության վնասվածքների, (S2) Ծանր վնասվածքների, (S3) կյանքին սպառնացող և մահացու վնասվածքների: .

Բացահայտումն այն է, թե արդյոք միջադեպի հավանականությունը մեծ է և քիչ հավանական, որ դուք ենթարկվեք այդ նյութին (այսինքն՝ վտանգավոր բնույթի գործառնական իրավիճակում գտնվելու վիճակ): Ըստ ISO ստանդարտի, ազդեցությունը կարելի է բաժանել (E0) աննշան, (E1) շատ ցածր, (E2) ցածր, (E3) միջին և (E4) բարձր:

Կառավարելիությունը վերաբերում է մեքենան մանևրելու հնարավորությանը` սպասվող աղետից խուսափելու համար: Սա կարող է տատանվել իրավիճակից ամբողջությամբ խուսափելուց կամ պարզապես այն շրջանցելուց, կամ այն, որ անկախ նրանից, թե ինչ եք անում, բավարար միջոցներ չկան կառավարելու, արգելակելու կամ արագացնելու և պահը կանխելու համար: ISO ստանդարտը ցույց է տալիս, որ կառավարելիությունը կարելի է բաժանել (C0) ընդհանուր կառավարելի, (C1) պարզապես կառավարելի, (C2) սովորաբար կառավարելի և (C3) դժվար կամ անվերահսկելի:

Համատեղելով ծանրության, ազդեցության և վերահսկելիության երեք գործոնները՝ դուք կարող եք հասնել ռիսկի գնահատման ցուցումներին տվյալ վարորդական իրավիճակի համար: Ենթադրաբար, մենք դա անում ենք մեր գլխում, ճանաչողական, թեև իրականում ինչպես ենք դա անում և արդյո՞ք մենք նույնիսկ օգտագործում ենք այս տեսակի բացահայտ տրամաբանությունը, վիճելի է, քանի որ ոչ ոք իրականում չգիտի, թե ինչպես է մեր միտքն աշխատում այս հզորությամբ:

Մի մոլորվեք թվացյալ մաթեմատիկական բանաձևով և հասկացեք, որ մեքենա վարելիս ռիսկի հայտնաբերման հարցը միանգամայն պարզ է: Կա դատողությունների ահռելի քանակություն, որը վերաբերում է այն բանին, թե ինչպես եք որպես մարդ դասակարգում ազդեցությունը, խստությունը և վերահսկելիությունը:

Վարորդական ռիսկի այս բխումը դժվար է մարդկանց համար: Փորձելով ինտելեկտուալ ինտելեկտը նույն կերպ անելը նույնպես անսովոր դժվար է: Հատկանշական է, որ AI վարորդական համակարգի հիմնական հնարավորությունը ենթադրում է ալգորիթմի վրա հիմնված որոշումներ (ADM) կայացնել վարորդական ռիսկերի վերաբերյալ: Դուք կարող եք զարմանալ, երբ իմանաք, որ AI վարորդական համակարգերից շատերն այսօր չեն իրականացնում վարորդական ռիսկի հաշվարկն ու գնահատումը: Ընդհանրապես, օգտագործվում են շատ կոպիտ և խիստ պարզեցված մոտեցումներ։ Արդյո՞ք սա կհասնի ինքնակառավարվող մեքենաների լայն տարածմանը, բաց հարց է: Այս երկընտրանքի մասին ավելին, որը կապված է հայտնի մտքի փորձի հետ, որը հայտնի է որպես տրոլեյբուսի խնդիր, տե՛ս իմ վերլուծությունը այստեղ այս հղումը Մականուն.

Մյուս մտահոգությունն այն է, որ արհեստական ​​ինտելեկտի շարժիչ համակարգերը հաճախ ծրագրավորվում են բյուզանդական եղանակով, և այն հատվածները, որոնք վերաբերում են վարորդական ռիսկի ասպեկտներին, թաղված են կոդի խորքում: Քիչ թափանցիկություն կա այն մասին, թե ինչպես է որոշակի ավտոարտադրող կամ ինքնակառավարվող տեխնոլոգիական ընկերություն ընտրել ծրագրավորելու իրենց AI համակարգի շարժիչ ռիսկի հնարավորությունները: Հավանականություն կա, որ մենք կտեսնենք կարգավորող և հասարակական վերահսկողություն, երբ ինքնակառավարվող մեքենաներն ավելի տարածված լինեն:

Հիշեցնենք, որ AI Ռիսկերի կառավարման շրջանակը սահմանել է չորս շահագրգիռ խմբեր, որոնց համար կարող են հեշտությամբ դիտվել ինքնակառավարվող մեքենաները.

  • AI համակարգի շահագրգիռ կողմերը - Ավտոարտադրողներ և ինքնակառավարվող տեխնոլոգիական ընկերություններ
  • Օպերատորներ և գնահատողներ - Նավատորմի օպերատորներ
  • Արտաքին շահագրգիռ կողմեր - Քաղաքների ղեկավարներ, կարգավորող մարմիններ և այլն:
  • Ընդհանուր հանրային - Հետիոտներ, հեծանվորդներ և այլն:

Ավտոարտադրողները և ինքնակառավարվող տեխնոլոգիական ընկերությունները պետք է ուսումնասիրեն արհեստական ​​ինտելեկտի հետ կապված ռիսկերը, որոնք նրանք մշակում և կիրառում են ինքնակառավարվող մեքենաներում: Արհեստական ​​ինտելեկտի ռիսկի հիմնական հիմքը կլինի AI վարորդական համակարգի տարրերը, թեև կան AI-ի այլ կիրառումներ ինքնավար մեքենաներում և առանց վարորդի մեքենաներում:

Ակնկալվում է, որ կլինեն նավատորմի օպերատորներ, որոնք կզբաղվեն հանրության կողմից օգտագործվող ինքնակառավարվող մեքենաների մեծ հավաքածուներով: Այդ նավատորմի օպերատորները սովորաբար պետք է պահեն ինքնավար մեքենաները պատշաճ վարելու համար և համոզվեն, որ ինքնակառավարվող մեքենաներն անվտանգ են օգտագործման համար: Նրանց ուշադրությունը հիմնականում ուղղված է ապարատային և ավելի քիչ՝ բեռնաթափման ծրագրային ապահովմանը: Ամեն դեպքում, նրանք նույնպես պետք է հաշվի առնեն AI-ի ռիսկերը՝ կապված ինքնակառավարվող մեքենաների և դրանց գործառնական օգտագործման հետ:

Այնտեղ, որտեղ ինքնակառավարվող մեքենաները հաստատվում են հանրային օգտագործման համար, հավանականությունն այն է, որ տարբեր քաղաքային, նահանգային և երբեմն դաշնային հաստատման և, հնարավոր է, վերահսկողության մակարդակներ կձեռնարկվեն: Կան նաև տարբեր գործող օրենքներ և նոր ընդունված օրենքներ, որոնք կարգավորում են, թե ինչպես կարող են ինքնակառավարվող մեքենաները տեղակայվել հանրային ճանապարհների վրա, տես իմ լուսաբանումը այստեղ հղումն այստեղ. Այս հասարակական մտածողությամբ շահագրգիռ կողմերը պետք է նաև ուսումնասիրեն Ինքնաշարժ մեքենաների հետ կապված արհեստական ​​ինտելեկտի ռիսկերը:

Քանի դեռ ինքնակառավարվող մեքենաները տեղադրված են հանրային մայրուղիների և ճանապարհների վրա, լայն հասարակությունը նույնպես պետք է մտածի արհեստական ​​ինտելեկտի հետ կապված ռիսկերի մասին: Հետիոտները վտանգի տակ են, որ ինքնակառավարվող մեքենան մխրճվի նրանց մեջ: Նույնը հեծանվորդների համար։ Ճանապարհների մյուս բոլոր օգտվողները պոտենցիալ խոցելի են արհեստական ​​ինտելեկտի ռիսկերի նկատմամբ, որոնք խճճված են ցանկացած տվյալ վայրում ինքնավար տրանսպորտային միջոցների օգտագործման մեջ:

Եզրափակում

Մենք պետք է ավելի շատ ուշադրություն դարձնենք AI-ի ռիսկերին: Արհեստական ​​ինտելեկտի ռիսկերի կառավարման ստանդարտացված շրջանակ ունենալը հարմար գործիք կապահովի AI ռիսկերը պարզելու համար: Հավանականությունը նույնպես մեծ է, որ AI-ի էթիկայի ուղեցույցների ընդլայնվող օգտագործումը կուղեկցի AI-ի ռիսկերը որոշելու անհրաժեշտությունը՝ դա անելով որպես Էթիկական AI-ի կանոններին հետևելու մի մաս:

Ես սկսեցի այս քննարկումը` նշելով, որ գեներալ Փաթոնն ասաց, որ մենք պետք է հստակորեն հաշվարկենք ռիսկը: Նա նաև հայտնի հորդորեց, որ մարդիկ միշտ պետք է անեն ավելին, քան իրենցից պահանջվում է:

Ես խնդրում եմ ձեզ հաշվի առնել, որ նույնիսկ եթե ձեզանից չեն պահանջում AI-ի ռիսկերը ուսումնասիրել, դուք պետք է լրջորեն դուրս գաք նորմայից և ձգտեք դա անել: Եկեք բոլորս առերեսվենք արհեստական ​​ինտելեկտի հետ կապված ռիսկերին և համոզվենք, որ մենք չբարձրանանք սոցիալական անկայուն հարթակ, որտեղից մենք չենք կարող ապահով հետ վերադառնալ:

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/04/11/ai-ethics-welcomes-the-prospects-of-a-standardized-ai-risk-management-framework-which-could- ամրապնդել-ինքնավար-ինքնակառավարման-մեքենան նույնպես/