Արհեստական ​​ինտելեկտի էթիկան պայքարում է արհեստական ​​ինտելեկտի անխուսափելի վթարների հետ, որոնք նույնպես բախվում են ինքնավար մեքենաների վրա

Հավանաբար ճանաչու՞մ եք մեկին, ով կարծես թե հատկապես հակված է պատահարների:

Թվում է, թե մենք բոլորս էլ անում ենք:

Հավանաբար, մարդն այն տեսակն է, որը կարող է սայթաքել բանանի կեղևի վրա կամ թակել ձեր հյուրասենյակի թանկարժեք ծաղկամանը: Նրանք մարդկային մագնիս են այս կամ այն ​​տեսակի վթարների համար: Դա կարող է այնքան վատ լինել, որ դուք նույնիսկ զզվում եք երբեմն նրանց մոտ լինել: Դուք կարող եք ստանալ չարագուշակ արտահոսք կամ տառապել նրանց տհաճ վթարներից մեկի անփառունակ հետևանքներից:

Բայց միգուցե մենք չափազանց կոշտ ենք, երբ ասում ենք, որ որևէ մեկը ավելի շատ հակված է դժբախտ պատահարների, քան մյուսները: Կարելի է փաստարկ բերել, որ դժբախտ պատահարներ կարող են պատահել մեզանից յուրաքանչյուրի հետ: Մենք բոլորս ենթակա ենք վթարի ենթարկվելու կամ ներքաշվելու հնարավորությանը: Մեզնից լավագույնները ներառված են:

Եկեք այս քննարկման վերևում մի լրացուցիչ մտահոգիչ հարց դնենք:

Արդյո՞ք պատահարներն անխուսափելի են։

Այլ կերպ ասած, անկախ նրանից, թե որքան դժվար է մենք փորձել կանխել դժբախտ պատահարները, անբաժանելիորեն կարող է լինել, որ, այնուամենայնիվ, դեռ կա վթարներ տեղի ունենալու հնարավորություն և վերջնական վստահություն: Դուք կարող եք ձգտել պաշտպանել աշխարհը դժբախտ պատահարներից: Դա անկասկած խելամիտ է թվում: Բայց այսպես թե այնպես, դժբախտ պատահարները դեռ կկանգնեն իրենց տգեղ գլուխը:

Ինչպես ասում են, վթարները սպասում են.

Կարող է օգտակար լինել պարզաբանել, թե ինչ է նշանակում՝ նշելով, որ ինչ-որ իրադարձության պատշաճ կերպով պիտակավորված է որպես վթար: Սովորական բառարանի սահմանումն այն է, որ դժբախտ պատահարը պատահարների տեսակ է, որը տեղի է ունենում անսպասելի և անկանխամտածված, որի համար կա դժբախտ արդյունք, որը բաղկացած է վնասի կամ վնասվածքի տեսքից:

Ուշադիր բացեք այդ սահմանումը:

Նշված միջադեպն անսպասելի է. Սա նշանակում է, որ մենք կարծես թե չէինք գիտակցում, որ վթարն ինքնին տեղի կունենա։

Նշված միջադեպը դիտավորյալ չի եղել։ Սա հուշում է, որ մենք պետք է բացառենք այն հանգամանքները, երբ ինչ-որ մեկը միտումնավոր փորձել է տեղի ունենալ միջադեպը: Եթե ​​կատակասերը բանանի կեղևը դնի հատակին, որտեղ նրանք գիտեն, որ անհաջող և անմեղ անմեղ է քայլելու, ապա ձեզ դժվար կլինի պնդել, որ այն, ով սայթաքել է այն, վթարի է ենթարկվել: Փոխարենը նրանց խաբեցին և նենգորեն տարան ծուղակը:

Սահմանումը ներառում է նաև արդյունքի դժբախտության չափանիշը։ Այս լույսի ներքո դժբախտ պատահարը պետք է հանգեցնի տխուր արդյունքի: Անձը, ով պատահաբար թակել է ծաղկամանը, ճաքել է և, հնարավոր է, վնասել է սիրված իրը, որը վերանորոգման ենթակա չէ: Ծաղկամանի տիրոջը վնասում է արժեքի կորուստը։ Ծաղկամանը վազած անձը այժմ կարող է պարտական ​​լինել տիրոջը կորստի համար: Երկինք չանի, որ ծաղկաման կոտրվելուց որևէ մեկը կտրվի կամ ջարդվի:

Հավասար հավասարակշռության համար մենք կարող ենք նշել, որ կան նաև այսպես կոչված «լավ» վթարներ: Մարդը կարող է հայտնվել մեծ հարստության մեջ կամ վթարի հետևանքով որևէ այլ կենսական օգուտ ստանալ: Ամենահաճախ հիշատակված օրինակներից է սըր Ալեքսանդր Ֆլեմինգը և պենիցիլինի հայտնի հայտնագործությունը: Պատմությունն ասում է, որ նա մի փոքր անզգույշ է եղել իր լաբորատորիայում և երկշաբաթյա արձակուրդից վերադառնալուն պես իր կուլտուրայի ափսեներից մեկի վրա բորբոս է գտել: Հաղորդվում է, որ այս մասին նա ասել է. «Մարդ երբեմն գտնում է այն, ինչ չի փնտրում։ Երբ ես արթնացա 28թ. սեպտեմբերի 1928-ի լուսաբացից անմիջապես հետո, ես, անշուշտ, չէի պլանավորում հեղաշրջում կատարել ողջ բժշկության մեջ՝ բացահայտելով աշխարհում առաջին հակաբիոտիկը կամ բակտերիաները սպանողը: Բայց ես ենթադրում եմ, որ դա հենց այն էր, ինչ ես արեցի»:

Մենք մի կողմ կթողնենք բարենպաստ վթարները և կկենտրոնանանք աղետալի վթարների վրա: Դժբախտ պատահարների խոժոռված դեմքի տարբերակն այն է, որտեղ այդ անբարենպաստ հետևանքները կարող են հատկապես վտանգավոր լինել կյանքի համար կամ ունենալ ծանր արդյունքներ: Որքան հնարավոր է, բացասական պատահարները, որոնք մենք ցանկանում ենք նվազագույնի հասցնել (և, իհարկե, վերընթաց պատահարները, որոնք մենք կցանկանայինք առավելագույնի հասցնել, եթե դա հնարավոր է անել, թեև ես կանդրադառնամ այս ժպիտի տարբերակին ավելի ուշ սյունակում):

Ես կցանկանայի մի փոքր վերաշարադրել ավելի վաղ տրված հարցը վթարների անխուսափելիության մասին: Առայժմ մենք մեր ուշադրությունը պահել ենք դժբախտ պատահարների վրա, որոնք տեղի են ունենում առանձին անհատի դեպքում: Կասկած չկա, որ դժբախտ պատահարները կարող են ազդել նաև բազմաթիվ մարդկանց վրա միանգամից: Սա հատկապես կարելի է հանդիպել, երբ մարդիկ ընկղմված են այս կամ այն ​​բարդ համակարգի մեջ:

Պատրաստվեք նախկինում հրապարակված հարցի տարբերակին:

Արդյո՞ք համակարգային վթարներն անխուսափելի են:

Մենք պետք է մտածենք այս մասին:

Ենթադրենք, որ գործարանային հատակ է դրված մեքենաների մասեր պատրաստելու համար։ Նրանք, ովքեր նախագծել են գործարանը, ենթադրենք չափազանց մտահոգված են աշխատողների վթարներով, որոնք կարող են տեղի ունենալ: Գործարանի աշխատողներից պահանջվում է մշտապես սաղավարտ կրել: Գործարանի ցուցանակները հորդորում են զգույշ լինել դժբախտ պատահարներից և ուշադիր լինել ձեր աշխատանքում: Ձեռնարկվում են բոլոր նախազգուշական միջոցները վթարներից խուսափելու համար։

Այս համակարգում մենք կարող ենք հուսալ, որ ոչ ոք երբեք վթարի չի ենթարկվի: Դուք հավատու՞մ եք, որ վթարի հավանականությունը զրոյական է: Ես կհամարձակվեի առաջարկել, որ ոչ մի ողջամիտ մտածող գրազ չի անի, որ վթարի հավանականությունն այս դեպքում զրոյական է: Վթարի հավանականությունը կարող է իսկապես ցածր լինել, սակայն մենք դեռ գիտենք և ենթադրում ենք, որ չնայած բոլոր նախազգուշական միջոցներին, դեռևս կա վթարի փոքր ռիսկ:

Այս ամենը մատնանշում է այն գաղափարը, որ բավական բարդ համակարգում մենք պարտավոր ենք հավատալ, որ դժբախտ պատահարներ դեռ տեղի կունենան՝ անկախ այն բանից, թե որքան ջանք գործադրենք դրանք կանխելու համար: Մենք դժկամությամբ աջակցում ենք այն դրույթին, որ համակարգային վթարներն իսկապես անխուսափելի են: Այս տրամաչափի վիթխարի հայտարարությունը կարող է նախազգուշացում ունենալ, որ համակարգը պետք է լինի այնպիսի բարդության շեմի, որ ըստ էության անհնար է ծածկել բոլոր հիմքերը՝ վթարներն ամբողջությամբ կանխելու համար:

Այժմ դուք քայլ առ քայլ ծանոթացաք վթարների մասին լայնորեն ուրվագծված տեսությանը, որը կարող է պիտակվել որպես Նորմալ պատահարներ կամ Նորմալ պատահարների տեսություն (NAT): Ահա այս հասկացությունն ուսումնասիրած հետազոտողների հարմար նկարագրությունը. «Բավական մեծ մասշտաբով ցանկացած համակարգ կառաջացնի «սովորական վթարներ»: Սրանք անխուսափելի վթարներ են, որոնք առաջացել են բարդության, բաղադրիչների միջև զուգակցման և հնարավոր վնասների համակցությամբ: Սովորական վթարը տարբերվում է բաղադրիչների խափանումների ավելի տարածված պատահարներից նրանով, որ սովորական վթարի հետևանքով առաջացած իրադարձություններն ու փոխազդեցությունները հասկանալի չեն համակարգի օպերատորների համար» (ինչպես ասված է Ռոբերտ Ուիլյամսի «Հասկանալ և խուսափել AI ձախողումներից. գործնական ուղեցույց» հոդվածում: Ռոման Յամպոլսկի, Փիլիսոփայություններ ամսագիր):

Պատճառը, որ ես ձեզ բերել եմ այսպես կոչված երկիր սովորական պատահարներ այն է, որ մեզ գուցե անհրաժեշտ լինի ուշադիր կիրառել այս տեսությունը մի բանի վրա, որն աստիճանաբար և անխուսափելիորեն դառնում է ամենուր մեր հասարակության մեջ, այն է՝ Արհեստական ​​ինտելեկտի (AI) գալուստը:

Եկեք փորփրենք սա:

Որոշ մարդիկ կեղծ ենթադրում են, որ AI-ն կատարելություն է լինելու: Արհեստական ​​ինտելեկտի համակարգերը չեն սխալվի և մեզ դժվարության մեջ չեն գցի, շարունակվում են ենթադրությունները: Ձեզ անհրաժեշտ է միայն համոզվել, որ արհեստական ​​ինտելեկտի այդ մշակողները բավական լավ աշխատանք են կատարում, և այո, AI-ն երբեք չի անի որևէ բան, որը կարող է մեկնաբանվել որպես պատահական կամ վթարի պատճառ:

Ոչ այնքան արագ այդ հիպոթետիկ համոզմունքի վրա: Եթե ​​դուք ցանկանում եք գնել տեսությունը սովորական պատահարներ, ցանկացած բովանդակային բարդության ցանկացած AI անխուսափելիորեն վթարի կհանգեցնի: Անկախ նրանից, թե ուշ գիշերվա ընթացքում այս արհեստական ​​ինտելեկտի ծրագրավորողները վթարը կանխելու համար ինտելեկտուալ ինտելեկտը, անշուշտ, ժամանակի ինչ-որ պահի կհայտնվի վթարի մեջ: Այդպես է փշրվում թխվածքաբլիթը: Եվ մեր թափած կաթի մեջ լաց լինելը հանգիստ չի տալիս դրա մասին:

Խորհեք AI-ի խառնուրդի և հայեցակարգային դրույթների մասին սովորական պատահարներ.

Պատկերացրեք, որ մենք ունենք AI համակարգ, որը վերահսկում է միջուկային զենքը: AI-ն խնամքով մշակվել է: Ցանկացած հնարավոր ստուգում և մնացորդ կոդավորված է AI համակարգում: Արդյո՞ք մենք ապահով ենք AI-ի վրա հիմնված վթարից, որը կարող է տեղի ունենալ: Նրանք, ովքեր պաշտպանում են սովորական պատահարների տեսակետը, կասեն, որ մենք այնքան էլ ապահով չենք, որքան կարելի է ենթադրել: Հաշվի առնելով, որ արհեստական ​​ինտելեկտը, ամենայն հավանականությամբ, կլինի հատկապես բարդ, սովորական վթարը լուռ սպասում է այնտեղ, որը երբևէ ի հայտ կգա, գուցե հնարավոր ամենավատ պահին:

Այդ փշոտ հարցերի և տարակուսանքների էությունը կայանում է նրանում, որ մենք պետք է գիտակցենք, որ արհեստական ​​ինտելեկտը պետք է վթարային լինի, և մարդկությունը պետք է ինչ-որ բան անի խելամիտ և նախաձեռնող վտանգների համար, որոնք կարող են լինել: Ինչպես կտեսնեք մեկ-երկու ակնթարթից, սա ակնթարթային նկատառում է, երբ խոսքը վերաբերում է AI-ի օգտագործմանը, և AI-ի էթիկայի և էթիկական AI-ի ոլորտը բավականին պայքարում է, թե ինչ անել: AI-ի էթիկայի և էթիկական AI-ի իմ շարունակական և ընդարձակ լուսաբանման համար տե՛ս հղումն այստեղ և հղումն այստեղ, պարզապես մի քանի անուն:

Նախքան նապաստակի անցքից իջնելը, եկեք համոզվենք, որ մենք նույն էջում ենք AI-ի բնույթի մասին: Այսօր չկա որևէ AI, որը զգայուն է: Մենք սա չունենք: Մենք չգիտենք, թե արդյոք հնարավո՞ր է խելացի AI-ն: Ոչ ոք չի կարող տեղին կանխագուշակել, թե արդյոք մենք կհասնենք խելամիտ AI-ին, և ոչ էլ արդյոք զգայական AI-ն ինչ-որ կերպ հրաշքով ինքնաբերաբար կառաջանա հաշվողական ճանաչողական գերնոր աստղի տեսքով (սովորաբար կոչվում է եզակիություն, տե՛ս իմ լուսաբանումը այստեղ. հղումն այստեղ).

AI-ի տեսակը, որի վրա ես կենտրոնանում եմ, բաղկացած է ոչ զգայուն AI-ից, որն այսօր ունենք: Եթե ​​ուզենայինք կատաղի ենթադրություններ անել զգայուն AI, այս քննարկումը կարող է գնալ արմատապես այլ ուղղությամբ: Զգացող AI-ն ենթադրաբար մարդկային որակի կլիներ: Դուք պետք է հաշվի առնեք, որ զգայական AI-ն ձեզ խորհուրդ տվող մարդու ճանաչողական համարժեքն է: Ավելին, քանի որ ոմանք ենթադրում են, որ մենք կարող ենք ունենալ գերխելացի AI, կարելի է պատկերացնել, որ այդպիսի AI-ն կարող է ավելի խելացի լինել, քան մարդիկ (սուպեր-խելացի արհեստական ​​ինտելեկտի իմ հետազոտության համար տե՛ս. լուսաբանումն այստեղ): Բոլոր ասված այս սցենարները կուժեղացնեն աղբյուրի գնահատականը:

Եկեք ամեն ինչ ավելի պարզ պահենք և հաշվի առնենք այսօրվա հաշվողական ոչ զգայուն AI-ն:

Գիտակցեք, որ այսօրվա AI-ն ի վիճակի չէ «մտածել» մարդկային մտածողությանը հավասար: Երբ դուք շփվում եք Alexa-ի կամ Siri-ի հետ, խոսակցական կարողությունները կարող են նման լինել մարդկային կարողություններին, բայց իրականությունն այն է, որ այն հաշվողական է և չունի մարդկային ճանաչողություն: AI-ի վերջին դարաշրջանը լայնորեն օգտագործել է մեքենայական ուսուցում (ML) և խորը ուսուցում (DL), որոնք օգտագործում են հաշվողական օրինաչափությունների համընկնումը: Սա հանգեցրել է արհեստական ​​ինտելեկտի համակարգերի, որոնք ունեն մարդու նման հակումների տեսք: Միևնույն ժամանակ, այսօր չկա որևէ արհեստական ​​բանականություն, որն ունի ողջամտության նմանություն և ոչ էլ ունի ուժեղ մարդկային մտածողության ճանաչողական հրաշք:

Դուք կարող եք տեղյակ լինել, որ երբ սկսվեց AI-ի վերջին դարաշրջանը, խանդավառության մեծ պոռթկում էր այն, ինչ այժմ ոմանք անվանում են: AI For Good. Ցավոք սրտի, այդ բուռն հուզմունքից հետո մենք սկսեցինք ականատես լինել AI For Bad. Օրինակ, AI-ի վրա հիմնված դեմքի ճանաչման տարբեր համակարգեր բացահայտվել են որպես ռասայական և գենդերային կողմնակալություններ պարունակող, որոնք ես քննարկել եմ հղումն այստեղ.

Դեմ պայքարելու ջանքերը AI For Bad ակտիվորեն ընթանում են։ Բացի աղմկոտ իրավական Սխալ արարքները զսպելու ձգտումները, կա նաև զգալի մղում դեպի AI էթիկան ընդունելու՝ AI-ի ստորությունը շտկելու համար: Հասկացությունը կայանում է նրանում, որ մենք պետք է ընդունենք և հաստատենք Արհեստական ​​ինտելեկտի էթիկական հիմնական սկզբունքները Արհեստական ​​ինտելեկտի զարգացման և ներդրման համար՝ դա անելով նվազեցնելու համար AI For Bad և միաժամանակ ազդարարելով և խթանելով նախընտրելիը AI For Good.

Համապատասխան հասկացության համաձայն՝ ես AI-ն օգտագործելու ջատագովն եմ՝ որպես արհեստական ​​ինտելեկտի դժբախտությունների լուծման մաս՝ կրակը կրակի հետ պայքարելով այդ մտածելակերպով: Օրինակ՝ մենք կարող ենք ներդնել Արհեստական ​​ինտելեկտի էթիկական բաղադրիչները արհեստական ​​ինտելեկտի համակարգում, որը կհետևի, թե ինչպես է AI-ի մնացած անդամներն անում բաներ և այդպիսով իրական ժամանակում պոտենցիալ կերպով կբռնեն ցանկացած խտրական ջանք, տես իմ քննարկումը. հղումն այստեղ. Մենք կարող ենք նաև ունենալ AI-ի առանձին համակարգ, որը հանդես է գալիս որպես AI Էթիկայի մոնիտոր: Արհեստական ​​ինտելեկտի համակարգը ծառայում է որպես վերահսկիչ՝ հետևելու և հայտնաբերելու, թե երբ է մեկ այլ AI գնում ոչ էթիկական անդունդ (տե՛ս նման հնարավորությունների իմ վերլուծությունը այստեղ՝ հղումն այստեղ).

Ընդհանուր առմամբ, ընդհանուր հույս կա, որ AI-ի էթիկայի սկզբունքների զգացում հաստատելով մենք գոնե կկարողանանք բարձրացնել հասարակության իրազեկությունը այն մասին, թե ինչ կարող է AI-ն և՛ շահավետ անել, և՛ կարող է բացասաբար առաջացնել: Ես լայնորեն քննարկել եմ AI-ի էթիկայի սկզբունքների տարբեր կոլեկտիվ վերլուծություններ, այդ թվում՝ լուսաբանելով հետազոտողների կողմից մշակված մի շարք, որոնք ուսումնասիրել և խտացրել են բազմաթիվ ազգային և միջազգային արհեստական ​​ինտելեկտի էթիկայի սկզբունքները «Արհեստական ​​ինտելեկտի էթիկայի գլոբալ լանդշաֆտը» վերնագրով հոդվածում (հրատարակված): մեջ բնություն), և որ իմ լուսաբանումն ուսումնասիրում է հղումն այստեղ, որը հանգեցրեց այս հիմնական ցուցակին.

  • Թափանցիկություն
  • Արդարություն և արդարություն
  • Ոչ չարամտություն
  • պատասխանատվություն
  • Գաղտնիության
  • Բարեգործություն
  • Ազատություն և ինքնավարություն
  • Վստահեք
  • Կայունություն
  • Արժանապատվություն
  • Համերաշխություն

Ինչպես կարող եք ուղղակիորեն կռահել, այս սկզբունքների հիմքում ընկած առանձնահատկությունները պարզելու փորձը կարող է չափազանց դժվար լինել: Առավել եւս, որ այդ լայն սկզբունքները լիովին շոշափելի և բավականաչափ մանրամասն ինչ-որ բանի վերածելու ջանքերը, որոնք կարող են օգտագործվել արհեստական ​​ինտելեկտի համակարգեր ստեղծելու ժամանակ, նույնպես դժվար է կոտրել: Հեշտ է ընդհանուր առմամբ ձեռքով պարզել, թե ինչ են AI-ի էթիկայի կանոնները և ինչպես պետք է դրանք ընդհանուր առմամբ պահպանվեն, մինչդեռ AI կոդավորման մեջ շատ ավելի բարդ իրավիճակ է, որը պետք է լինի իրական ռետինը, որը համապատասխանում է ճանապարհին:

AI-ի էթիկայի սկզբունքները պետք է օգտագործվեն արհեստական ​​ինտելեկտի մշակողների կողմից, ինչպես նաև նրանք, ովքեր կառավարում են AI-ի զարգացման ջանքերը, և նույնիսկ նրանք, ովքեր, ի վերջո, կիրառում և պահպանում են AI համակարգերը: Բոլոր շահագրգիռ կողմերը AI-ի զարգացման և օգտագործման ողջ ցիկլի ընթացքում համարվում են Էթիկական AI-ի հաստատված նորմերին պահպանելու շրջանակում: Սա կարևոր կարևոր կետ է, քանի որ սովորական ենթադրությունն այն է, որ «միայն կոդավորողները» կամ նրանք, ովքեր ծրագրավորում են AI-ն, ենթակա են հավատարիմ մնալու AI-ի էթիկայի հասկացություններին: Ինչպես արդեն նշվեց, AI-ի մշակման և դաշտի մշակման համար անհրաժեշտ է գյուղ, և որի համար ամբողջ գյուղը պետք է տիրապետի և պահպանի AI-ի էթիկայի կանոնները:

Հնարավոր է, որ մեզ անհրաժեշտ լինի ավելացնել AI-ի էթիկայի գովեստի ցուցակները, որոնք մենք պետք է բացահայտորեն դիտարկենք և բացահայտ գործողություններ ձեռնարկենք՝ կանխելու կամ գոնե խստորեն մեղմելու AI-ի վրա հիմնված սովորական պատահարներ որը կարող է առաջանալ: Նրանք, ովքեր զարգացնում են AI-ն, պետք է իրենց առավելագույնն անեն այդ ճակատում: Նրանք, ովքեր տեղակայում են AI-ն, նույնպես պետք է անեն: Նրանք, ովքեր օգտագործում են կամ ինչ-որ կերպ ենթակա են AI-ի, պետք է զգույշ լինեն և զգույշ լինեն արհեստական ​​ինտելեկտի վթարների հնարավորության համար, որոնք կարծես թե պատրաստվում են առաջանալ:

Դուք կարող եք գայթակղվել մտածելու, որ արհեստական ​​ինտելեկտի մեջ կարող են ներդրվել բավականաչափ նախազգուշական միջոցներ, որպեսզի վթարի հավանականությունը զրոյի հասնի: Նրանց համար, ովքեր տեխնոլոգներ են, սովորական գոռոզությունն այն է, որ եթե տեխնոլոգիայի մի մասը կարող է խնդիր առաջացնել, ապա տեխնոլոգիայի մեկ այլ կտոր, անկասկած, կարող է լուծել խնդիրը: Պարզապես շարունակեք ավելի ու ավելի շատ տեխնոլոգիաներ նետել, մինչև խնդիրը չվերանա:

Դե, նրանք, ովքեր ուսումնասիրել են համակարգերի վրա հիմնված վթարները, հակված են չհամաձայնվել և քաղաքավարի կերպով պատասխանել ենթադրյալ տեխնոլոգիական շքեղությանը` առաջարկելով մի տեսակետ, որը հայտնի է որպես շվեյցարական պանրի մոդել (SCM). «SCM-ում անվտանգության շերտերը մոդելավորվում են որպես հատվածներ պանիր՝ դրանց մեջ անցքերով, որոնք ներկայացնում են անվտանգության յուրաքանչյուր շերտի թույլ կետերը: Ժամանակի ընթացքում անցքերը փոխում են ձևը և շարժվում: Ի վերջո, անկախ նրանից, թե քանի կտոր պանիր (անվտանգության շերտեր) կան, անցքերը կհավասարեցվեն՝ թույլ տալով ուղիղ կրակել պանրի բոլոր կտորների միջով (դժբախտ պատահար է տեղի ունենում)» (Ռոբերտ Ուիլյամսի և Ռոման Յամպոլսկու ավելի վաղ մեջբերված թղթի համաձայն: ):

Ես չեմ ուզում խճճվել այս կողային շոշափողի մեջ, թե արդյոք կա AI-ն ծրագրավորելու երաշխավորված միջոց, որպեսզի ամբողջությամբ և միշտ կանխի վթարի ցանկացած հնարավորություն: Կան բոլոր տեսակի մաթեմատիկական և հաշվողական ապացուցման մոտեցումներ, որոնք փորձարկվում են: Կարծում եմ, խելամիտ և արդարացի է հայտարարել, որ մենք այսօր չունենք ընդլայնվող աշխատանքի մեթոդ, ոչ էլ տեխնոլոգիաներ, որոնք կարող են երաշխավորել նման զրոյական հնարավորություն, գումարած, որ մենք հաստատ թամբված ենք տոննաներով տոննա արհեստական ​​ինտելեկտով, որն արտադրվում է մեր կողմից: գիտեմ, որ հաստատ չի ձգտել ենթարկվել նման գործելաոճին: Այս վերջին կետը կարևոր է, քանի որ նույնիսկ եթե մենք կարողանանք ինչ-որ բան հորինել AI-ի լաբորատորիայում, այն հասցնելով հազարավոր վայրի և անհոգ AI-ի ջանքերի, որոնք շարունակվում են, և որոնք կշարունակեն ի հայտ գալ, հանգուցային խնդիր է և, հավանաբար, չի լուծվի, նույնիսկ եթե հաշվողական ապացուցող մեքենան արծաթե լինի: փամփուշտ կար.

Մեկ այլ կետ, որը, կարծում եմ, արժանի է հակիրճ հիշատակման, այն է, որ արհեստական ​​ինտելեկտը վերածվում է անբարոյական արարքների՝ չարամիտ մարդկային դերակատարների արդյունքում: Ես չեմ պատրաստվում այդ դեպքերը տեղավորել արհեստական ​​ինտելեկտի վթարների տիրույթում: Հիշեք, որ բացման քննարկումը ենթադրում էր, որ վթարի բառարանի սահմանումը եղել է միջադեպ ակամա բնությունը։ Եթե ​​մարդկային կիբերխարդախին հաջողվում է ստիպել արհեստական ​​ինտելեկտի համակարգին վատ բաներ անել, ես չեմ դասակարգում այդ արհեստական ​​ինտելեկտը որպես վթարի ենթարկված: Ես վստահ եմ, որ դուք կշարունակեք այդ ենթադրությունը։

Հետաքրքիր հարց է ծագում այն ​​մասին, թե արհեստական ​​ինտելեկտի տարբեր անբարենպաստ գործողություններից որքանը կարող է վերագրվել զուտ AI պատահարին և կիբերհանցագործի նենգ արարքին: Ըստ որոշ առկա AI-ի դեպքերի մասին տվյալների բազաների, թվում է, որ AI-ի վթարներն ավելի շատ են տեղի ունենում, քան չարամտորեն հրահրված միջադեպերը, թեև դուք պետք է ընդունեք այդ գաղափարը աղի մեծ չափաբաժնով: Ես սա ասում եմ, քանի որ մեծ գայթակղություն կա չզեկուցել, երբ AI համակարգը հարձակվել է, և, հնարավոր է, որոշ չափով ավելի պատրաստ լինել հայտնելու, երբ տեղի է ունենում AI վթար:

Կա մի չափազանց կարևոր նախազգուշացում, որը մենք պետք է քննարկենք արհեստական ​​ինտելեկտի վթարների վերաբերյալ:

«AI-ի դժբախտ պատահարներ» բառակապակցությունն օգտագործելն ընդհանուր առմամբ անցանկալի է և բավականին խառնաշփոթ է ստեղծելու բոլորիս համար, ինչը նշանակում է ողջ հասարակության համար: Երբ մարդկային երևույթը վթարի է ենթարկվում, մենք հաճախ թոթվում ենք մեր ուսերը և կարեկցում ենք վթարի ենթարկվածին: Մենք կարծես «պատահար» բառին վերաբերվում ենք այնպես, կարծես դա նշանակում է, որ ոչ ոք պատասխանատվություն չի կրում կատարվածի համար:

Բերենք ավտովթարի ենթարկվելու օրինակը. Մի մեքենա լայն ճոճվում է աջ շրջադարձով և պատահաբար մխրճվում է մեկ այլ մեքենայի մեջ, որն ուղիղ առաջ էր գնում: Խեղճ, դա ուղղակի պատահականություն էր և պատահաբար տեղի ունեցավ: Նրանք, ովքեր ներգրավված չեն եղել միջադեպի մեջ, թերևս պատրաստվում են թույլ տալ, որ հարցը սահի, եթե իրադարձությունը ձևակերպված լինի զուտ պատահականության տեսանկյունից:

Այնուամենայնիվ, ես այնպիսի զգացողություն ունեմ, որ եթե դուք լինեիք այն մեքենան, որին հարվածել էին, այնքան սրտացավ չէիք լինի վարորդի նկատմամբ, որը չափազանց լայն շրջադարձ կատարեց: Ձեր կարծիքը, անշուշտ, կլինի այն, որ մյուս վարորդը չարաճճի վարորդ է եղել, և որ մեքենա վարելու առերեւույթ անօրինական կամ անխոհեմ արարքը հանգեցրել է ավտովթարի: Միջադեպը որպես «պատահար» պիտակավորելով՝ խցանված վարորդն այժմ որոշ չափով անբարենպաստ վիճակում է, քանի որ, ըստ երևույթին, ամեն ինչ պատահաբար է տեղի ունեցել, այլ ոչ թե խառնաշփոթ վարորդի ձեռքերով:

Իրականում, «պատահար» բառն այնքան է լցված տարբեր ենթատեքստերով, որ, ընդհանուր առմամբ, ավտովթարների վերաբերյալ կառավարության վիճակագրությունը վերաբերվում է որպես ավտովթար կամ ավտովթար, այլ ոչ թե օգտագործում է ավտովթար արտահայտությունը: Մեքենաների բախումը կամ ավտովթարը կարծես թե որևէ հետևանք չունեն այն մասին, թե ինչպես է տեղի ունեցել միջադեպը: Մինչդեռ «ավտովթար» բառակապակցությունը մեզ գրեթե ստիպում է մտածել, որ դա ճակատագրի տարօրինակություն էր կամ ինչ-որ կերպ դուրս մարդկության ձեռքից:

Դուք կարող եք առատորեն տեսնել, թե ինչպես է այս իմաստային նկատառումը տեղի ունենում, երբ վերաբերում է AI-ի վթարներին: Մենք չենք ցանկանում, որ AI մշակողները թաքնվեն այն իմաստային վահանի հետևում, որ AI-ն պարզապես պատահաբար ինչ-որ մեկին վնաս է պատճառել: Նույնը վերաբերում է նրանց, ովքեր տեղակայում են AI: Դուք կարող եք պնդել, որ «AI պատահարներ» արտահայտությունը համարյա արհեստական ​​ինտելեկտի մարդակերպացում է, որը կմոլորեցնի հասարակությանը՝ թույլ տալով մարդկանց, ովքեր գտնվում էին AI-ի կուլիսներում խուսափել պատասխանատվությունից: Մարդկանց արհեստական ​​ինտելեկտի համար պատասխանատու դարձնելու կարևորության մասին իմ քննարկման համար տե՛ս իմ քննարկումը այստեղ այս հղումը Մականուն և այս հղումը Մականուն.

Այսուհետ ես պատրաստվում եմ օգտագործել արհեստական ​​ինտելեկտի դժբախտ պատահարների հիմնական արտահայտությունը, բայց դա անում եմ ակամա և միայն այն պատճառով, որ դա այս երևույթին անդրադառնալու սովորական ձևն է: Սա այլ կերպ արտահայտելու փորձերը, ցավոք, ավելի փքված են և ոչ այնքան հեշտ ընթերցվող: Խնդրում ենք, համոզվեք, որ մեկնաբանեք բառակապակցությունն այնպես, որ չստիպի ձեզ այլ կողմ նայել և չհասկանալ, որ արհեստական ​​ինտելեկտի հիմքում ընկած մարդիկ մեղավոր են, երբ AI-ն սխալվում է:

Արհեստական ​​ինտելեկտին որպես դժբախտ պատահարներ անվանելու հավանական շփոթությունը կամ ապակողմնորոշիչ ասպեկտները ցույց տալու համար մենք կարող ենք վերադառնալ ծաղկամանը թակելու մասին իմ խոսքերին: Դիտարկենք AI-ի այս օրինակը. «Այս խնդիրը կապված է այն բաների հետ, որոնք արվում են պատահաբար կամ անտարբերությամբ AI-ի կողմից: Ծաղկամանը բախող մաքրող ռոբոտը դրա օրինակներից մեկն է: Բարդ միջավայրերն այնքան շատ տեսակի «ծաղկամաններ» ունեն, որ մենք դժվար թե կարողանանք ծրագրավորել բոլոր կողմնակի ազդեցությունների համար տուգանք» (Ռոբերտ Ուիլյամսի և Ռոման Յամպոլսկու աշխատության համաձայն):

Արհեստական ​​ինտելեկտի համակարգը, որն օգտագործվում է տնային տնտեսությունում, այնուհետև «պատահաբար» թակում է ծաղկամանը, թվում է, թե ոչ ոք չպետք է մեղադրվի AI-ի այս անբարենպաստ գործողության համար: Դա ուղղակի դժբախտ պատահար էր, կարելի է ողբալով դատապարտել: Մյուս կողմից, մենք իրավացիորեն պետք է հարցնենք, թե ինչու AI համակարգը ծրագրավորված չէր, որպեսզի կարգավորի ծաղկամանների հանգամանքը ընդհանրապես: Նույնիսկ եթե արհեստական ​​ինտելեկտի մշակողները չէին ակնկալում, որ ծաղկամանը ինքնին գտնվում է այն օբյեկտների շրջանակում, որոնց կարելի է հանդիպել, մենք, անշուշտ, կարող ենք կասկածել, թե ինչու չկար որոշ համընդհանուր օբյեկտների խուսափում, որը կպահեր AI համակարգը թակելուց: ծաղկաման (հետևաբար, AI-ն, անշուշտ, կարող էր չդասակարգել ծաղկամանը որպես ծաղկաման, բայց այնուամենայնիվ կարող էր խուսափել այն որպես հայտնաբերելի օբյեկտ, որը պետք է խուսափել):

Ես կանխատեսել եմ և շարունակում եմ կանխատեսել, որ մենք աստիճանաբար գնում ենք դեպի հսկայական իրավական պայքար՝ կապված արհեստական ​​ինտելեկտի համակարգերի առաջացման հետ, որոնք հայտնվում են «AI վթարների» մեջ և ինչ-որ ձևի վնաս պատճառում: Մինչ այժմ հասարակությունը որևէ զգալի ձևով չի արձագանքել արհեստական ​​ինտելեկտի օրինական հակահարվածին, որը բահերով դուրս է գալիս շուկա և բերում բացասական հետևանքներ՝ դիտավորությամբ կամ ակամա: Այսօրվա արհեստական ​​ինտելեկտի բանդան, որը դարձել է արհեստական ​​ինտելեկտի կիսատ-պռատ ստեղծողների և նրանց, ովքեր հապճեպ կերպով իրականացնում են արհեստական ​​ինտելեկտի ներդրումը, բախտավոր են հենց հիմա և համեմատաբար անձեռնմխելի են մնում քաղաքացիական դատավարություններից և քրեական հետապնդումներից:

Արհեստական ​​ինտելեկտով բորբոքված իրավական արձագանքը վաղ թե ուշ գալիս է:

Շարժվելով առաջ՝ ինչպե՞ս կարող ենք փորձել և հաղթահարել այսպես կոչված AI վթարների անխուսափելիությունը:

Մի բան, որ մենք կարող ենք անմիջապես անել, դա փորձելն է կանխատեսել, թե ինչպես կարող են տեղի ունենալ AI վթարներ: Ակնկալելով արհեստական ​​ինտելեկտի վթարները՝ մենք կարող ենք գոնե միջոցներ մշակել դրանք կրճատելու կամ դրանց տեղի ունենալու հավանականությունը նվազագույնի հասցնելու համար: Ավելին, մենք կարող ենք փորձել տեղադրել պաշտպանական բազրիքներ, որպեսզի, երբ տեղի է ունենում արհեստական ​​ինտելեկտի վթար, ցուցադրական վնասի հավանականությունը նվազի:

Գործոնների օգտակար հավաքածու, որոնք նկարագրված էին ավելի վաղ մեջբերված հետազոտական ​​հոդվածում AI-ի ձախողումներից հասկանալը և խուսափելը. գործնական ուղեցույց ներառում է այս հատկությունները (ինչպես մեջբերում է հետազոտական ​​աշխատանքից).

  • Համակարգ, որի վրա ազդում են AI-ի արդյունքները:
  • Ժամանակի հետաձգում AI արդյունքների և ավելի մեծ համակարգի միջև, համակարգի դիտարկելիությունը, մարդու ուշադրության մակարդակը և օպերատորների կարողությունը շտկելու AI-ի անսարքությունները:
  • Առավելագույն վնասը, որը հնարավոր է AI-ի կողմից վերահսկվող համակարգերի չարամիտ օգտագործման արդյունքում:
  • Բաղադրիչների միացում AI-ին մոտ և փոխազդեցությունների բարդությունը:
  • AI-ի և օգտագործվող այլ տեխնոլոգիաների գիտելիքների բացը և համակարգի էներգիայի մակարդակը:

Այս բուռն քննարկման այս պահին ես գրազ կգամ, որ դուք ցանկանում եք որոշ պատկերավոր օրինակներ, որոնք կարող են ավելի պարզաբանել արհեստական ​​ինտելեկտի վթարների թեման: Կա հատուկ և վստահաբար սիրված օրինակների հավաքածու, որն ինձ հոգեհարազատ է: Տեսեք, որպես AI-ի փորձագետ, ներառյալ էթիկական և իրավական հետևանքները, ինձ հաճախ խնդրում են բացահայտել իրատեսական օրինակներ, որոնք ցույց են տալիս արհեստական ​​ինտելեկտի էթիկայի երկընտրանքները, որպեսզի թեմայի տեսական բնույթն ավելի հեշտությամբ ընկալվի: Ամենաոգեշնչող ոլորտներից մեկը, որը վառ կերպով ներկայացնում է այս էթիկական AI-ի խնդիրը, արհեստական ​​ինտելեկտի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելն է: Սա կծառայի որպես հարմար օգտագործման դեպք կամ օրինակ՝ թեմայի շուրջ լայն քննարկման համար:

Ահա մի ուշագրավ հարց, որի մասին արժե մտածել. Արդյո՞ք արհեստական ​​ինտելեկտի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելը որևէ բան լուսաբանում է, այսպես կոչված, արհեստական ​​ինտելեկտի վթարների առաջացման մասին, և եթե այո, ի՞նչ է սա ցույց տալիս:

Թույլ տվեք մի պահ բացել հարցը:

Նախ, նշեք, որ իրական ինքնակառավարվող մեքենայի մեջ մարդ վարորդ չկա: Հիշեք, որ իսկական ինքնակառավարվող մեքենաները վարում են AI վարորդական համակարգի միջոցով: Ղեկին մարդ վարորդի կարիք չկա, մեքենան վարելու համար մարդ չկա: Ինքնավար տրանսպորտային միջոցների (ԱՎ) և հատկապես ինքնակառավարվող մեքենաների իմ լայնածավալ և շարունակական լուսաբանման համար տե՛ս. հղումն այստեղ.

Ես կցանկանայի ավելի պարզաբանել, թե ինչ է նշանակում, երբ ես վերաբերում եմ իրական ինքնակառավարվող մեքենաներին:

Հասկանալով ինքնակառավարվող մեքենաների մակարդակները

Որպես պարզաբանում, իսկական ինքնակառավարվող մեքենաներն այն մեքենաներն են, որտեղ AI-ն ամբողջությամբ ինքնուրույն է վարում մեքենան, և վարորդական առաջադրանքի ընթացքում մարդկային օգնություն չի ցուցաբերվում:

Այս առանց վարորդի տրանսպորտային միջոցները համարվում են 4-րդ և 5-րդ մակարդակներ (տե՛ս իմ բացատրությունը այս հղումը Մականուն), մինչդեռ մեքենան, որը մարդկային վարորդից պահանջում է համատեղ ջանքեր գործադրել, սովորաբար դիտարկվում է 2-րդ կամ 3-րդ մակարդակում: Մեքենաները, որոնք համատեղ կատարում են վարորդական առաջադրանքը, նկարագրվում են որպես կիսաինքնավար և սովորաբար պարունակում են մի շարք մեքենաներ: ավտոմատացված հավելումներ, որոնք կոչվում են ADAS (Վարորդների օգնության առաջադեմ համակարգեր):

5-րդ մակարդակում դեռ իրական ինքնակառավարվող մեքենա չկա, և մենք դեռ չգիտենք, թե արդյոք դա հնարավոր կլինի հասնել, և որքան ժամանակ կպահանջվի այնտեղ հասնելու համար:

Միևնույն ժամանակ, 4-րդ մակարդակի ջանքերը աստիճանաբար փորձում են որոշակի ձգողականություն ձեռք բերել՝ անցնելով շատ նեղ և ընտրովի հանրային ճանապարհային փորձարկումներ, թեև հակասություններ կան այն հարցի շուրջ, թե արդյոք այս թեստավորումն ինքնին պետք է թույլատրվի (մենք բոլորս փորձի մեջ կյանքի կամ մահվան ծովախոզուկներ ենք: ոմանք պնդում են, որ տեղի է ունենում մեր մայրուղիներում և ճանապարհների վրա, տես իմ լուսաբանումը այս հղումը Մականուն).

Քանի որ կիսաավտոմեքենաները մարդկային վարորդ են պահանջում, այդպիսի մեքենաների ընդունումը չի տարբերվի սովորական տրանսպորտային միջոցներից վարվելուց, հետևաբար, այս թեմայի շուրջ դրանց մասին ծածկելու համար ամենևին էլ նոր բան չկա (չնայած, ինչպես կտեսնեք մի ակնթարթում ընդհանուր առմամբ կիրառվում են հաջորդ կետերը):

Կիսաանվտանգ ավտոմեքենաների համար կարևոր է, որ հասարակությունը պետք է նախազգուշացվի վերջին շրջանում ի հայտ եկած անհանգստացնող կողմի մասին, մասնավորապես այն, որ չնայած այն մարդկային վարորդներին, ովքեր շարունակում են փակցնել իրենց տեսահոլովակները իրենց մասին, քնում են «Level 2» կամ «Level 3» մեքենայի ղեկին: , մենք բոլորս պետք է խուսափենք ապակողմնորոշվելուց `հավատալով, որ վարորդը կարող է իրենց ուշադրությունը հանել վարորդական առաջադրանքից` կիսաավտոմեքենան վարելիս:

Դուք պատասխանատու կողմն եք տրանսպորտային միջոցի վարման գործողությունների համար, անկախ նրանից, թե որ ավտոմատացումը կարող է տեղափոխվել 2-րդ մակարդակի կամ 3-րդ մակարդակի:

Ինքնավար մեքենաներ և AI միջադեպեր

4-րդ և 5-րդ մակարդակների իսկական ինքնագնաց տրանսպորտային միջոցների համար վարորդական գործին չի մասնակցի մարդկային վարորդ:

Բոլոր գրավյալները ուղևորներ են լինելու:

AI- ն վարում է վարումը:

Անմիջապես քննարկելու մի ասպեկտ ենթադրում է այն փաստը, որ այսօր AI- ի վարման համակարգերում ներգրավված AI- ն զգայուն չէ: Այլ կերպ ասած, AI- ն ընդհանուր առմամբ համակարգչային ծրագրավորման և ալգորիթմների հավաքածու է, և, անկասկած, ի վիճակի չէ տրամաբանել այնպես, ինչպես մարդիկ կարող են:

Ինչու՞ է այս հավելյալ շեշտադրումը արհեստական ​​ինտելեկտի մասին զգացմունքային չէ:

Քանի որ ես ուզում եմ ընդգծել, որ երբ քննարկում եմ AI շարժիչ համակարգի դերը, ես մարդկային որակներ չեմ վերագրում AI- ին: Խնդրում ենք տեղյակ լինել, որ այս օրերին շարունակական և վտանգավոր միտում կա AI- ն մարդաբանելու համար: Ըստ էության, մարդիկ մարդկային նման զգացողություն են հատկացնում այսօրվա AI- ին, չնայած անհերքելի և անառարկելի փաստին, որ այդպիսի AI դեռ գոյություն չունի:

Այդ պարզաբանմամբ դուք կարող եք պատկերացնել, որ AI վարելու համակարգը բնիկ ինչ-որ կերպ «չի իմանա» վարման կողմերի մասին: Վարորդությունն ու դրա հետևանքները պետք է ծրագրավորվեն որպես ինքնակառավարվող մեքենայի սարքավորումների և ծրագրակազմի մաս:

Եկեք սուզվենք այն անհամար ասպեկտների մեջ, որոնք սկսում են խաղալ այս թեմայի շուրջ:

Նախ, կարևոր է գիտակցել, որ ոչ բոլոր ինքնակառավարվող AI մեքենաները նույնն են: Յուրաքանչյուր ավտոարտադրող և ինքնակառավարվող տեխնոլոգիական ընկերություն իր մոտեցումն է ցուցաբերում ինքնակառավարվող մեքենաների ստեղծման հարցում: Որպես այդպիսին, դժվար է լայնածավալ հայտարարություններ անել այն մասին, թե ինչ կանեն կամ չեն անեն AI վարորդական համակարգերը:

Ավելին, ամեն անգամ, երբ նշվում է, որ արհեստական ​​ինտելեկտի կառավարման համակարգը որոշակի բան չի անում, դա հետագայում կարող է շրջանցվել այն մշակողների կողմից, որոնք իրականում ծրագրավորում են համակարգիչը հենց դա անելու համար: Քայլ առ քայլ, արհեստական ​​ինտելեկտի շարժիչ համակարգերը աստիճանաբար բարելավվում և ընդլայնվում են: Այսօր գոյություն ունեցող սահմանափակումն այլևս գոյություն չի ունենա համակարգի ապագա կրկնության կամ տարբերակի դեպքում:

Հավատում եմ, որ բավականաչափ նախազգուշացում է ապահովում ՝ հիմք դնելու այն, ինչի մասին ես պատրաստվում եմ պատմել:

Մենք այժմ պատրաստ ենք խորը սուզվել ինքնակառավարվող մեքենաների և էթիկական AI հնարավորությունների մեջ, որոնք ենթադրում են այսպես կոչված AI վթարների հայտնվելը:

Պատկերացրեք, որ արհեստական ​​ինտելեկտի վրա հիմնված ինքնակառավարվող մեքենան ընթանում է ձեր թաղամասի փողոցներում և կարծես թե ապահով է վարում: Սկզբում դուք հատուկ ուշադրություն էիք հատկացրել ամեն անգամ, երբ ձեզ հաջողվում էր հայացք նետել ինքնակառավարվող մեքենային։ Ինքնավար մեքենան աչքի էր ընկնում իր էլեկտրոնային սենսորների դարակով, որը ներառում էր տեսախցիկներ, ռադարային միավորներ, LIDAR սարքեր և այլն: Շատ շաբաթներ անց, երբ ինքնակառավարվող մեքենան շրջում էր ձեր համայնքում, դուք հիմա դա հազիվ եք նկատել: Ինչ վերաբերում է ձեզ, դա պարզապես հերթական մեքենան է առանց այն էլ բանուկ հանրային ճանապարհների վրա:

Որպեսզի չմտածեք, որ անհնար է կամ անհավանական է ծանոթանալ ինքնակառավարվող մեքենաներին, ես հաճախ եմ գրել այն մասին, թե ինչպես են այն վայրերը, որոնք գտնվում են ինքնակառավարվող մեքենաների փորձարկումների շրջանակում, աստիճանաբար ընտելացել են տեսնել երեսպատված մեքենաները: Տեղացիներից շատերը, ի վերջո, անցան բերանից բաց շողոքորթությունից դեպի այժմ արտանետելով ձանձրույթի լայնածավալ հորանջ՝ ականատես լինելու այդ ոլորապտույտ ինքնակառավարվող մեքենաներին:

Հավանաբար, հենց հիմա հիմնական պատճառը, որ նրանք կարող են նկատել ինքնավար մեքենաները, գրգռվածության և զայրույթի գործոնն է: AI վարորդական համակարգերը երաշխավորում են, որ մեքենաները ենթարկվում են արագության բոլոր սահմանափակումներին և ճանապարհային կանոններին: Իրենց ավանդական մարդկանց կողմից վարվող մեքենաներով բուռն մարդ վարորդների համար դուք զայրանում եք այն ժամանակ, երբ մնում եք խստորեն օրինապահ AI-ի վրա հիմնված ինքնակառավարվող մեքենաների հետևում:

Դա մի բան է, որին մենք բոլորս պետք է սովորենք՝ իրավացիորեն կամ սխալ կերպով:

Վերադարձ դեպի մեր հեքիաթը։

Մի օր ինքնակառավարվող մեքենան վթարի է ենթարկվում։

Աջ շրջադարձ կատարելիս արհեստական ​​ինտելեկտի վարման համակարգը լայնորեն պտտեց ինքնավար մեքենան և հարվածեց մարդու կողմից ղեկավարվող մեքենային: Մարդկանց վարած մեքենան շարժվում էր ուղիղ առաջ՝ համապատասխան երթևեկության գոտում: Մարդ վարորդի համար առանձնահատուկ հնարավորություն չկար շեղվելու կամ հարվածից խուսափելու համար։ Բացի այդ, ոչ մի նախազգուշացում կամ ցուցում չի եղել ինքնակառավարվող մեքենայի կողմից, որ այն պատրաստվում է լայնորեն աջ շրջադարձ կատարել։

Արդյո՞ք սա դժբախտ պատահար է:

Անշուշտ կարող ենք ասել, որ այն ներառված է արհեստական ​​ինտելեկտի վթար լինելու ռուբիկայում: Նման պնդման հիմք է հանդիսանում այն, որ ինքնակառավարվող մեքենայի ղեկին եղել է արհեստական ​​ինտելեկտի վարման համակարգ։ Ինչ-որ կերպ, ինչ-ինչ պատճառներով, AI-ն որոշեց լայն ճոճանակներ կատարել աջ շրջադարձ կատարելիս: Արդյունքը հանգեցրել է նրան, որ ինքնակառավարվող մեքենան հարվածել է մարդու կողմից վարվող մեքենային։

Հիշեք ավելի վաղ քննարկումը «պատահար» բառի հետ կապված իմաստների մասին և տեսեք, թե ինչպես են նման երանգավորումները հայտնվում այս սցենարում: Նաև, հիշեք, որ մենք քննարկել ենք այն դեպքը, երբ մարդ վարորդը լայն աջ շրջադարձ կատարեց և բախվեց մարդավարի մեքենային: Մենք հասկացանք, որ այս արարքի «պատահականություն» հասկացությունը ապակողմնորոշիչ և շփոթեցնող է: Մարդկային վարորդը, ով կատարել է լայն ճոճանակը, կարող էր թաքնվել այն մտքի հետևում, որ պատահական կամ ճակատագրի քմահաճույք է տեղի ունեցել։

Սցենարը որպես «AI պատահար» պիտակավորելու փոխարեն, երբ AI վրա հիմնված ինքնակառավարվող մեքենան լայնորեն դուրս է գալիս և հարվածում մարդու կողմից վարվող մեքենային, երևի պետք է ասել, որ դա ավտովթար էր կամ ավտոմեքենայի բախում, որը կապված էր ինքնակառավարման հետ։ վարող մեքենա և մարդավար մեքենա: Այնուհետև մենք կարող ենք հրաժարվել այն անհասկանալի շփոթությունից, որ դա անհայտ միջոցների պատահար է:

Ի՞նչ եք կարծում, ինչպիսի՞ն կլինի հանրության արձագանքը միջադեպին:

Դե, եթե ավտոարտադրողը կամ ինքնակառավարվող տեխնոլոգիական ֆիրման կարող է հավատարիմ մնալ դեպքի պիտակավորմանը որպես դժբախտ պատահար, նրանք կարող են շրջանցել լայն համայնքի հավանական արձագանքը: Դժբախտ պատահարների մասին կարեկցանքի զգացումը, հնարավոր է, հոսել կոնկրետ հանգամանքի վրա: Մանրամասն այն մասին, թե ինչպես են քաղաքները, շրջանները և նահանգների ղեկավարները պոտենցիալ արձագանքելու AI-ի ինքնավար մեքենաների միջադեպերին, տե՛ս Հարվարդի ուսումնասիրության քննարկումը, որը ես ղեկավարել եմ և ինչպես նկարագրված է հղումն այստեղ.

Եթե ​​իրավիճակը պարզ նկարագրվում է որպես ավտովթար կամ ավտոմեքենայի բախում, միգուցե դա կարող է թույլ տալ հասկանալ, որ ինչ-որ մեկը կամ ինչ-որ բան, հավանաբար, մեղավոր է միջադեպի համար: Ծնկի ցնցման արձագանքը կարող է լինել այն, որ AI-ն պետք է պատասխանատվություն կրի: Բանն այն է, որ մինչև կամ եթե մենք երբևէ չորոշենք օծել AI-ն որպես իրավաբանական անձի տեսք, դուք չեք կարողանա պատասխանատվությունը կապել AI-ի վրա (տե՛ս AI-ի և իրավաբանական անձի վերաբերյալ իմ քննարկումը այստեղ. հղումն այստեղ).

Մենք կարող ենք ստուգել արհեստական ​​ինտելեկտի վարորդական համակարգը՝ փորձելով պարզել, թե ինչն է հանգեցրել թվացյալ անպատշաճ վարման և դրան հաջորդած ավտովթարի: Դա, սակայն, չի նշանակում, որ AI-ն պատասխանատվության է ենթարկվելու: Պատասխանատու կողմերը ներառում են AI մշակողները, ինքնակառավարվող մեքենայի պարկի օպերատորը և այլք: Ես ներառում եմ նաև ուրիշներին, քանի որ հավանականություն կա, որ քաղաքը մասամբ պատասխանատվություն կրի այն անկյունի նախագծման համար, որտեղ շրջադարձը տեղի է ունեցել: Բացի այդ, ենթադրենք, որ հետիոտնը շրջում էր անկյան տակ, և AI վարորդական համակարգը որոշեց խուսափել մարդուց և, այնուամենայնիվ, մխրճվեց ավտովթարի մեջ:

Եվ այսպես շարունակ:

Եզրափակում

Մենք կցանկանայինք իմանալ, թե ինչ է AI-ն հաշվողականորեն հաշվարկում և ինչ է ծրագրավորվել անել: Արդյո՞ք AI-ն արեց այնպես, ինչպես կոդավորված էր: Հնարավոր է, որ AI-ն ծրագրավորման մեջ հանդիպել է սխալի կամ սխալի, որը չի արդարացնում գործողությունները, բայց ավելի շատ հուշում է, թե ինչպես է տեղի ունեցել վթարը:

Ինչպիսի՞ արհեստական ​​ինտելեկտի պահակակետեր են ծրագրավորվել արհեստական ​​ինտելեկտի շարժիչ համակարգում: Եթե ​​լինեին պաշտպանական բազրիքներ, մենք կուզենայինք պարզել, թե ինչու նրանք կարծես թե չէին կանխում ավտովթարը: Միգուցե AI վարորդական համակարգը կարող էր կանգ առնել, քան շրջադարձ կատարել: Մենք կցանկանայինք իմանալ, թե ինչ այլընտրանքներ է AI-ն հաշվողականորեն գնահատել միջադեպի ընթացքում:

Բացի կոնկրետ միջադեպի էությունը հասկանալուց, մեկ այլ իրավացի վիճաբանություն այն է, թե արդյոք արհեստական ​​ինտելեկտի վարորդական համակարգը ունի թերություն կամ այլ ներկառուցված կողմ, որը կարող է նման տեսակի անբարենպաստ գործողություններ կատարել: Ըստ էության, այս միջադեպը կարող է ավելի շատ գալիքի ցուցիչ լինել: Ինչպե՞ս են օգտագործվել մեքենա վարելու իրավիճակների համակարգչային մոդելավորումը՝ փորձելու և կանխատեսելու այս տեսակի AI վարորդական համակարգի հուշումները: Կա՞ն բավարար ճանապարհային վարորդական թեստեր՝ պարզելու AI խնդիրները, որոնք կարող էին հանգեցնել ավտովթարի:

Այս սցենարը ընդգծում է վիճելի հանելուկը, որը բախվում է AI-ի վրա հիմնված ինքնակառավարվող մեքենաների առաջացմանը:

Դա անցնում է այսպես.

Մի կողմից, կա հասարակական ցանկություն՝ արագորեն ընդունելու ինքնակառավարվող մեքենաները՝ հույս ունենալով, որ AI վարորդական համակարգերը կլինեն նույնքան անվտանգ կամ, հնարավոր է, ավելի անվտանգ, քան մարդ վարորդները: Միայն Միացյալ Նահանգներում մենք ներկայումս ունենում ենք տարեկան մոտ 40,000 մարդկային զոհեր ավտովթարների և մոտ 2.5 միլիոն մարդու վնասվածքների պատճառով: Վերլուծությունները ցույց են տալիս, որ այդ ավտովթարների մի զգալի մասը վերագրվում է մարդկային սխալներին, ինչպիսիք են հարբած վիճակում մեքենա վարելը, խելագարված վիճակում մեքենա վարելը և այլն (տե՛ս նման վիճակագրության իմ գնահատականը. հղումն այստեղ).

AI վարորդական համակարգերը չեն խմում և չեն վարում: Նրանք հանգստի կարիք չեն ունենա և ղեկին նստած չեն մաշվի։ Ենթադրվում է, որ ինքնակառավարվող մեքենաները որպես կենսունակ փոխադրամիջոց սահմանելով՝ մենք կարող ենք նվազեցնել մարդ վարորդների թիվը։ Սա իր հերթին պետք է նշանակի, որ մենք համառորեն կնվազեցնենք ավտովթարներից տարեկան մարդկային մահերի և վնասվածքների թիվը:

Որոշ փորձագետներ ասում են, որ մենք կհասնենք զրոյական զոհերի և զրոյական վնասվածքների, և այդ ինքնակառավարվող մեքենաները, իբր, չեն կարող վթարի ենթարկվել, բայց սա բոլորովին անհեթեթ և բացարձակապես կեղծ սպասումների շարք է: Ես բացատրեցի, թե ինչու է սա այդքան անազնիվ հղումն այստեղ.

Ամեն դեպքում, ենթադրենք, որ մենք կունենանք որոշակի քանակությամբ ավտովթարներ, որոնց մասնակցում են ինքնակառավարվող մեքենաները: Ենթադրենք նաև, որ այդ ավտովթարները կունենան որոշակի քանակությամբ զոհեր և վիրավորներ: Հարցը, որի շուրջ տանջվում է, այն է, թե արդյոք մենք՝ որպես հասարակություն, պատրա՞ստ ենք ընդհանրապես հանդուրժել նման դեպքերը։ Ոմանք ասում են, որ եթե իսկական ինքնակառավարվող մեքենաների հետևանքով նույնիսկ մեկ մահ կամ վնասվածք է տեղի ունենում, ապա ամբողջ հանդերձանքը և կաբուդը պետք է փակվեն:

Հակադարձող տեսակետն այն է, որ եթե փրկված կյանքերը նվազեցնում են տարեկան հաշվարկները, մենք պետք է շարունակենք խրախուսել ինքնակառավարվող մեքենաների հայտնվելը և ոչ թե արձագանքել նման անտրամաբանական ձևով: Մենք պետք է ընդունենք այն նախադրյալը, որ որոշ չափով մահացություններ և վնասվածքներ դեռևս գոյություն կունենան, նույնիսկ ինքնակառավարվող մեքենաների դեպքում, և, այնուամենայնիվ, գիտակցենք, որ տարեկան թիվը, եթե կրճատվի, հուշում է, որ մենք ճիշտ ուղու վրա ենք:

Իհարկե, ոմանք պնդում են, որ մենք չպետք է ունենանք ինքնակառավարվող մեքենաներ մեր հանրային ճանապարհներին, քանի դեռ դրանք կամ մաքրվել են նման օգտագործման համար՝ համակարգչի վրա հիմնված ընդարձակ և սպառիչ սիմուլյացիաների արդյունքում կամ մասնավոր փակ երթուղու փորձարկման արդյունքում: Հակափաստարկն այն է, որ ինքնակառավարվող մեքենաները շարժելու միակ կենսունակ և ամենաարագ ճանապարհը հանրային ճանապարհների օգտագործումն է, և որ ինքնակառավարվող մեքենաների ընդունման ցանկացած ուշացում հակառակ դեպքում թույլ կտա շարունակել մարդկանց կողմից վարվող մեքենաների վթարի սարսափելի թվերը: Ես ավելի երկար անդրադարձել եմ այս բանավեճին իմ սյունակներում և հորդորում եմ ընթերցողներին դիտել այդ քննարկումները՝ այս վիճահարույց հարցի վերաբերյալ տեսակետների ամբողջական իմաստը հասկանալու համար:

Եկեք ամեն ինչ ամփոփենք առայժմ:

AI վթարներ են տեղի ունենալու. Մենք պետք է դիմադրենք արհեստական ​​ինտելեկտի վթարը թվացյալ ընկալելու մղմանը պատահական և, հետևաբար, կեղծ կերպով թույլ տվեք, որ ստեղծողները և նրանք, ովքեր տեղակայում են AI-ն, կտրականապես հեռու լինեն:

Կա հավելյալ շրջադարձ, որը ես թողնում եմ ձեզ՝ որպես ձեր օրվա վերջին ինտրիգային միտք:

Հաղորդվում է, որ կատակերգու Դեյն Քուքը պատմել է այս անեկդոտը ավտովթարների մասին. «Մի քանի օր առաջ ես ավտովթարի ենթարկվեցի: Իմ մեղքը չէ: Եթե ​​նույնիսկ դու մեղավոր չես, դիմացինը իջնում ​​է իր մեքենայից ու քեզ է նայում, կարծես դու մեղավոր ես. ինչո՞ւ կանգնեցիր կարմիր լույսի տակ ու թույլ տվեցիր, որ քեզ խփեմ՝ 80 անելով»:

Այնտեղ, որտեղ շրջադարձն առաջին պլան է մղվում, այն է, որ արհեստական ​​ինտելեկտի համակարգը կարող է պնդել, որ երբ տեղի է ունենում արհեստական ​​ինտելեկտի վթար, որը կապված է տվյալ AI-ի հետ, AI-ն պնդում է, որ միջադեպը եղել է մարդու մեղքով և, անշուշտ, ոչ AI-ի մեղքով: Ի դեպ, սա կարող է լինել առատորեն ճիշտ, և մարդը կարող է փորձել քավության նոխազ դարձնել AI-ն՝ պնդելով, որ դա AI-ի մեղքն է:

Կամ գուցե արհեստական ​​ինտելեկտը փորձում է քավության նոխազ դարձնել մարդուն:

Տեսնում եք, AI-ն, որը մենք մշակել ենք, կարող է դժվար լինել այդ կերպ՝ պատահաբար, կամ ոչ:

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- մեքենա վարելը նույնպես/