Ո՞րն է Պենտագոնի նորացված քաղաքականությունը մարդասպան ռոբոտների վերաբերյալ:

Պենտագոնը հայտարարություն է տարածել թարմացնել իր 3000.09 հրահանգը, որն ընդգրկում է այն, ինչ նրանք անվանում են Ինքնավարությունը զենքի համակարգերում իսկ մյուսները զանգում ենմարդասպան ռոբոտներ. Ներկայիս անօդաչու թռչող սարքերը, ինչպիսիք են օդային ուժերը և ԿՀՎ-ն MQ-9 Հնձվորներ կառավարվում են հեռակառավարմամբ՝ մարդ նստած վիդեո էկրանի դիմաց նույնացնում է թիրախները գետնին հազարավոր մղոն հեռավորության վրա, դրանք դնում խաչմերուկում և բաց թողնում Դժոխքի կրակի հրթիռ կամ այլ զենք: Ինքնավար զենքերը տարբեր են. նրանք ընտրում են իրենց թիրախները՝ առանց մարդկային միջամտության: Հստակ կանոններ են անհրաժեշտ, թե երբ և ինչպես դրանք կարող են օգտագործվել, և նոր հրահանգը դրանք մեկ քայլ ավելի է մոտեցնում:

Տասը տարի առաջ, երբ թողարկվեց 3000.09-ի առաջին տարբերակը, ինքնավար զենքերը նման էին գիտաֆանտաստիկայի: Հիմա դրանք շատ իրական են։ Այդ մասին պնդում էր ՄԱԿ-ը Թուրքիայի կողմից մատակարարված անօդաչու թռչող սարքերն ինքնավար կերպով հարձակվել են թիրախների վրա Լիբիայում 2020 թվականին, և Ռուսաստանն այժմ թափառող զինամթերք է տեղակայում Ուկրաինայում ինքնավար կարողություն.

Շատ ակտիվիստներ, ինչպիսիք են Քարոզարշավ՝ դադարեցնելու մարդասպան ռոբոտներին, ցանկանում են ինքնավար զենքի ուղղակի արգելք՝ պնդելով, որ ցանկացած հեռահար զենք մնում է տակը մարդկային իմաստալից վերահսկողություն բոլոր ժամանակներում. ՄԱԿ-ը քննարկում էր, թե ինչպես դա անել վերահսկել նման զենքերը երկար տարիներ.

Այնուամենայնիվ, ինչպես պարզ է դառնում նոր հրահանգը, Պենտագոնը հավատարիմ է մնում այլ գծի:

«DoD-ն հետևողականորեն դեմ է արտահայտվել «իմաստալից մարդկային վերահսկողության» քաղաքականության ստանդարտին, երբ խոսքը վերաբերում է ինչպես ինքնավար համակարգերին, այնպես էլ AI համակարգերին»: Գրեգորի ԱլենAI-ի կառավարման ծրագրի տնօրեն Ռազմավարական և միջազգային հետազոտությունների կենտրոն, պատմիր ինձ. «Արվեստի պաշտպանության նախարարության նախընտրելի տերմինը «մարդկային դատողության համապատասխան մակարդակն է», որն արտացոլում է այն փաստը, որ որոշ դեպքերում՝ ինքնավար հսկողության ինքնաթիռներ և ինքնավար կիբերզենքի որոշ տեսակներ, օրինակ. »:

Ինչպիսի՞ ինքնավար զենքեր կթույլատրվեն ինչ հանգամանքներում: Ալենը կարծում է, որ հրահանգի նախորդ տարբերակն այնքան անհասկանալի էր, որ այն չխրախուսեց ցանկացած զարգացում այս ոլորտում:

«Շփոթմունքն այնքան տարածված էր, այդ թվում՝ DoD-ի որոշ բարձրաստիճան ղեկավարների շրջանում, որ պաշտոնյաները ձեռնպահ էին մնում որոշ համակարգերի մշակումից, որոնք ոչ միայն թույլատրված էին քաղաքականության կողմից, այլև բացահայտորեն ազատված էին ավագ վերանայման պահանջից», - ասում է Ալենը:

Հրապարակվելուց հետո տասը տարվա ընթացքում ոչ մի զենք չի ներկայացվել ինքնավար զենքերի վերանայման գործընթացին, որը ներկայացված է բնօրինակ 3000.09-ում:

Ալենը գրել է շարադրություն այս մասին Անցյալ տարի CSIS-ի համար նկարագրելով չորս ոլորտներ, որոնք աշխատանքի կարիք ունեին՝ պաշտոնապես սահմանելով ինքնավար զենքի համակարգեր, ասելով, թե ինչ է նշանակում «AI-ի միջոցով» քաղաքականության համար, ինչպես վերանայման գործընթացը կկարգավորի մեքենայական ուսուցման մոդելների վերապատրաստումը և պարզաբանելով, թե ինչ տեսակի զենքեր են պահանջվում: անցնել ծանր վերանայման գործընթաց:

«DoD-ն իրականացրել է դրանք բոլորը», - ասում է Ալենը:

Սկզբունքորեն, ուրեմն, դա պետք է ապահովի DoD-ի «ուժեղ և շարունակական հանձնառությունը լինելու թափանցիկ գլոբալ առաջնորդ ինքնավար համակարգերի ռազմական օգտագործման վերաբերյալ պատասխանատու քաղաքականություն սահմանելու հարցում»:

Այնուամենայնիվ, կան որոշ լրացումներ, որոնք կարող են դիտվել որպես բացթողումներ, ինչպես օրինակ՝ ինքնավար զենքերը պաշտպանող անօդաչու թռչող սարքերի ավագ վերանայումից ազատելը, որոնք չեն թիրախավորում մարդկանց («հականյութական զենքեր») և որոնց թույլատրվում է թիրախավորել հրթիռները, այլ անօդաչու սարքերը։ և հնարավոր այլ համակարգեր:

«Պաշտպանել» բառը տոննա աշխատանք է կատարում». Զակ Կալենբորն,- ասաց ինձ Ջորջ Մեյսոն համալսարանի Քաղաքականության և կառավարման դպրոցի Schar School of Policy-ի անդամներից մեկը: «Եթե անօդաչու թռչող սարքը գործում է թշնամու տարածքում, գրեթե ցանկացած զենք կարող է մեկնաբանվել որպես հարթակի «պաշտպանություն»:

Կալենբորնը նաև նշում է, որ թեև արդյունավետորեն ինքնավար զենքերը, ինչպիսիք են ականները, օգտագործվել են ավելի քան մեկ դար, լանդշաֆտը արագորեն փոխվում է արհեստական ​​ինտելեկտի և հատուկ մեքենայական ուսուցման առաջընթացի պատճառով: Սրանք առաջացրել են համակարգեր, որոնք շատ ընդունակ են, բայց տեխնիկապես փխրուն - երբ նրանք ձախողվում են, նրանք տպավորիչ կերպով ձախողվում են այնպես, ինչպես, օրինակ, ոչ մի մարդ կրիան հրացանի հետ շփոթելով.

«AI-ի միջոցով ինքնավարությունը միանշանակ արժանի է ավելի շատ մտահոգության՝ հաշվի առնելով ներկայումս գերիշխող մոտեցումների փխրունությունն ու բացատրելիության բացակայությունը», - ասում է Կալենբորնը:

Թարմացումը մեծ չէ: Բայց դա ցույց է տալիս Պենտագոնի շարունակական նվիրվածությունը արդյունավետ ինքնավար զենքեր մշակելուն և համոզմունքը, որ նրանք կարող են համապատասխանել: միջազգային մարդասիրական իրավունքի — քաղաքացիական անձանց տարբերել զինվորական անձնակազմից, ձգտել խուսափել քաղաքացիական անձանց վնաս հասցնելուց և կիրառել միայն համաչափ և անհրաժեշտ ուժ։

Քարոզարշավի մասնակիցները կարծում են, որ արհեստական ​​ինտելեկտը չի ունենա անհրաժեշտ ըմբռնում պատերազմի ժամանակ բարոյական դատողություններ անելու համար և վտանգում է ստեղծել մի աշխարհ, որտեղ պատերազմը ավտոմատացված է, և մարդիկ այլևս չեն վերահսկում: Մյուսները կարծում են, որ ԱՄՆ զինված ուժերը կլինեն մրցակիցների կողմից գերազանցված ինքնավար զենքերով եթե AI-ն չի ներառված տակտիկական մակարդակում, և դա չափազանց շատ մարդկային ներգրավվածություն է դանդաղեցնում է ռազմական ռոբոտների աշխատանքը.

Հավանաբար, վեճը կշարունակվի նույնիսկ այն ժամանակ, երբ ինքնավար զենքերը սկսում են հայտնվել, և արդյունքներին ուշադիր հետևելու են: Ամեն դեպքում, թվում է, որ մարդասպան ռոբոտները գալիս են:

Աղբյուր՝ https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/