AI-ի էթիկան պայքարում է երկու AI-ի վրա հիմնված ինքնավար զենքերի համակարգերի կրակոտ մեկ-երկու հարվածի և AI-ի վրա հիմնված ինքնավար համակարգերի շահագործման հետ, որոնք սատանայական զենք են ստացել

Այդ զարմանալի պարող չորս ոտանի ռոբոտները.

Համոզված եմ, որ դուք տեսել եք չորս ոտանի ռոբոտային համակարգերի վիրուսային տեսանյութերը, որոնք պարում և ցնծում են թվացյալ հիասքանչ և շան պես սիրելի ձևերով: Թվում է, թե մենք հաճույք ենք ստանում տեսնելով արհեստական ​​ինտելեկտի վրա հիմնված այդ ռոբոտները, երբ նրանք մագլցում են խոչընդոտների վրայով և կարծես թե նուրբ հենարան են ձեռք բերում արկղերի վրա նստած կամ պահարանների անխռով գագաթներին անկայուն կերպով տեղադրվելուց հետո: Նրանց մարդավարները երբեմն խոթում են կամ հրում են ցնծացող չորս ոտանի ռոբոտներին, ինչը չափազանց անարդար է թվում և կարող է հեշտությամբ բարձրացնել ձեր զայրույթը այդ խելամիտ մարդանմանների կողմից դաժան վերաբերմունքից:

Ինձ հետաքրքրում է, թե արդյոք դուք տեսել եք բոլորովին այլ տրամաչափի ոչ այնքան վիրուսային տեսանյութեր:

Պատրաստիր ինքդ քեզ.

Կան լայնորեն հրապարակված տեսանյութեր, որոնք ցույց են տալիս նույն տեսակի չորս ոտանի ռոբոտները, որոնք հագեցած են այս կամ այն ​​տեսակի ընդգծված սպառազինությամբ:

Օրինակ՝ գնդացիր կամ նմանատիպ հրազեն տեղադրված է այլ կերպ ծանոթ պարող-պարող ռոբոտի վրա: Չորս ոտանի ռոբոտի և զենքի կրակման մեխանիզմի միջև էլեկտրոնային կապ կա։ Այժմ զենքով զինված համակարգչային քայլող սարքը ցուցադրվում է քայլելով դեպի այն վայրը, որտեղ տեղադրված է ցուլի թիրախը, և գնդացիրը կատաղի կրակում է թիրախի վրա: Հետագայում մասամբ ոչնչացված թիրախը գամելուց հետո, չորս ոտանի ռոբոտը պարում և ցնծում է մոտակա խոչընդոտների շուրջ և շարվում՝ նորից ու նորից կրկնելու նույն գործողությունը այլ թարմ թիրախների վրա:

Ոչ այնքան այն, ինչ դուք կարող եք ակնկալել տեսնել: Սա, անշուշտ, խլում է թեթևությունն ու հարաբերական ուրախությունը՝ անկեղծորեն դիտելով այդ փաթաթված չորս ոտանի ռոբոտներին իրենց գործը: Բարի գալուստ թվացյալ դաժան իրականություն անվնաս ինքնավար համակարգերը փոխակերպվում կամ փոխակերպվում են կտրուկ սպառազինության։ Միանգամայն ջանք գործադրելով, դուք կարող եք մեկ գիշերվա ընթացքում ունենալ «չզինված» ինքնավար համակարգ, որը վերազինված է լիարժեք սպառազինություն պարունակելու համար:

Որոշ հանգամանքներում դա գրեթե հեշտ է:

Ես պատրաստվում եմ քննարկել այս բուռն վիճահարույց թեման և լուսաբանել AI-ի էթիկայի բավականին լուրջ խնդիրները, որոնք առաջանում են: Մենք ճամփորդություն կկատարենք դեպի ինքնավար համակարգեր, AI, ինքնավար տրանսպորտային միջոցներ, սպառազինություն և մի շարք առնչվող Էթիկական AI մարտական ​​խնդիրներ: AI-ի էթիկայի և էթիկական AI-ի իմ շարունակական և ընդարձակ լուսաբանման համար տե՛ս հղումն այստեղ և հղումն այստեղ, պարզապես մի քանի անուն:

Սկսենք որոշ հիմնաքարերից:

Քննարկման համար ընդունեք, որ զենքով զինված ինքնավար համակարգերը դասակարգելու երկու հիմնական եղանակ կա.

1) Ինքնավար Զենքի Համակարգեր (ըստ դիզայնի)

2) Ինքնավար համակարգեր, որոնք զինված են (ըստ փաստի)

Երկու կատեգորիաների միջև կա կարևոր տարբերություն.

Առաջին դեպքում մենք կսահմանենք ան ինքնավար սպառազինության համակարգ ի սկզբանե լինել համակարգչային ստեղծման հիմք, որը նպատակաուղղված է որպես զենք: Մշակողները մտքում ունեին, որ ցանկանում էին զենք մշակել։ Նրանց բացահայտ ձգտումը զենք արտադրելն է: Նրանք գիտեին, որ կարող են ինտեգրված կերպով համատեղել սպառազինությունը ինքնավար համակարգերի նորագույն տեխնոլոգիաների հետ: Սա զենք է, որը հոսում է բարձր տեխնոլոգիաների ալիքի վրա, որը հասնում է ինքնավար շարժման և ինքնավար գործողությունների (ավելի մանրամասն կմանրամասնեմ շուտով):

Ի հակադրություն, երկրորդ դեպքում մենք կքննարկենք ինքնավար համակարգերի հարցը, որոնք ընդհանրապես հատուկ թեքություն չունեն զենքի նկատմամբ: Սրանք ինքնավար համակարգեր են, որոնք մշակվում են այլ նպատակների համար: Պատկերացրեք այնպիսի ինքնավար մեքենա, ինչպիսին է ինքնակառավարվող մեքենան, որը կօգտագործվի բոլորի համար շարժունակություն ապահովելու և օգնելու համար նվազեցնելու հազարավոր մահացության դեպքերը, որոնք տեղի են ունենում մարդկանց կողմից վարելու և մարդկանց կողմից կառավարվող մեքենաների պատճառով (տե՛ս իմ խորը լուսաբանումը ժամը հղումն այստեղ) Թվում է, թե զենքը հաշվի չի առնվում նրանց համար, ովքեր բարելավում են հասարակության ջանքերը՝ մարդկանց ղեկից դուրս հանելու և փոխարենը ինտելեկտը վարորդի նստատեղին դնելու համար:

Բայց այդ անվնաս ինքնավար համակարգերը կարող են զինվել, եթե մարդիկ ցանկանան դա անել:

Ես վերաբերում եմ այս երկրորդ կատեգորիային, ապա որպես ինքնավար համակարգեր, որոնք զինված են. Ինքնավար համակարգը ի սկզբանե և հավատարմորեն ստեղծվել է ենթադրաբար ոչ սպառազինության նպատակով: Չնայած դրան, երազկոտ ալտրուիստական ​​հույսը խարխլվում է ինչ-որ մեկի կողմից ինչ-որ տեղ, ով ստանում է այն խորամանկ գաղափարը, որ այս հնարքը կարող է զենք լինել: Հանկարծ, ինքնավար համակարգը, որը քնքուշ էր թվում, դարձավ մահացու զենք՝ նշելով զենքի որոշ հնարավորություններ (օրինակ՝ վերը նշված չորս ոտանի շան նման ռոբոտները, որոնց վրա ավելացվել է գնդացիր կամ նմանատիպ հրազեն): .

Ցավոք սրտի, երկու կատեգորիաները որոշ չափով հայտնվում են նույն տեղում, մասնավորապես՝ ապահովելով զենքի համար ինքնավար համակարգերի օգտագործման հնարավորություն՝ պոտենցիալ մահացու հիմքով:

Այդ վերջնական կետին հասնելու գործընթացը, ամենայն հավանականությամբ, տարբեր կլինի:

Ուղղակի սպառազինված ինքնավար համակարգերի համար, որոնք ամրացված էին որպես զենք, սպառազինության ասպեկտները սովորաբար առջևի և կենտրոնական են: Դուք կարող եք ասել, որ ինքնավար համակարգի կողմերը փաթաթված են ցանկացած զենքի հիմնաքարի շուրջ, որը դիտարկվում է: Մշակողների մտածողության գործընթացը որոշակիորեն համընկնում է այն գծերի վրա, թե ինչպես կարող է զենքը շահագործել ինքնավար համակարգերի գալուստը:

Մյուս տեսանկյունը սովորաբար ամենևին էլ այդ մտածելակերպի մեջ չէ: Մշակողները ցանկանում են ստեղծել գերժամանակակից ինքնավար համակարգ, միգուցե մարդկության բարելավման համար: Այս մշակողները ներդրել են իրենց ամենաանկեղծ սիրտն ու հոգին ինքնավար համակարգը ստեղծելու համար: Սա նրանց գյուտի առանցքն է։ Նրանք գուցե չպատկերացնեն, որ ինչ-որ մեկը կյուրացնի կամ կխորտակի իրենց հրաշքով օգտակար սարքը։ Նրանք երանելիորեն հիացած են հասարակական օգուտներով, որոնք կապված են ձևավորվող և արտադրվող ինքնավար համակարգի հետ:

Ինչ-որ պահի, ենթադրենք, որ երրորդ կողմերը գիտակցում են, որ ինքնավար համակարգը կարող է վերազինվել, որպեսզի զինվի: Միգուցե նրանք խաբում են ծրագրավորողներին՝ թույլ տալով, որ նրանք ունենան ինքնավար համակարգ՝ բարձր նպատակների համար: Փակ դռների հետևում այս չարագործները նախընտրում են գաղտագողի ավելացնել ինքնավար համակարգին սպառազինության հնարավորություն: Voila, անմեղությունը վերածվեց ուղղակի զենքի:

Պարտադիր չէ, որ գործերն այդպես ընթանան:

Հավանաբար ծրագրավորողներին ասվել է, որ նրանք մշակում են անմեղ ինքնավար համակարգ, սակայն նրանք, ովքեր ֆինանսավորում կամ ուղղորդում են ջանքերը, այլ նպատակներ ունեին: Միգուցե ինքնավար համակարգի ջանքերն իսկապես անմեղ կերպով սկսվեցին, բայց հետո, երբ հաշիվները պետք է վճարվեին, ղեկավարությունը գործարք կնքեց ֆինանսավորման աղբյուրի հետ, որը ցանկանում է ինքնավար համակարգերը ստոր պատճառներով: Մեկ այլ հնարավորությունն այն է, որ ծրագրավորողները գիտեին, որ ավելի ուշ օգտագործումը կարող է լինել սպառազինության համար, բայց նրանք կարծում էին, որ նրանք կանցնեն այդ սարսափելի կամուրջը, երբ այն երբևէ առաջանա: և այլն:

Կան շատ ու շատ տարբեր ուղիներ, թե ինչպես է այս ամենը խաղում:

Դուք կարող եք հետաքրքրություն գտնել, որ ես նկարագրել եմ նախորդ սյունակներում, որ կա AI-ի էթիկայի իրազեկության աճ՝ կապված երկակի օգտագործման համար ժամանակակից AI-ի տարրերը, տես հղումն այստեղ. Թույլ տվեք համառոտ ներկայացնել ձեզ արագության մասին:

Արհեստական ​​ինտելեկտի համակարգը, որը նախատեսված է լավի համար, երբեմն կարող է լինել վատի եզրին, գուցե որոշ բավականին պարզ փոփոխությունների միջոցով, և համապատասխանաբար համարվում է երկակի օգտագործման բնույթ: Վերջերս նորությունների մեջ հայտնվեց AI համակարգ, որը ստեղծվել էր քիմիական նյութեր հայտնաբերելու համար, որոնք կարող են սպանողներ լինել, որի համար մշակողները ցանկանում էին համոզվել, որ մենք կարող ենք խուսափել կամ զգուշանալ նման վատ մտածված քիմիական նյութերից: Պարզվում է, որ արհեստական ​​ինտելեկտը կարող է որոշ չափով հեշտությամբ կարգավորվել՝ նվիրվածորեն բացահայտելու այդ մարդասպան քիմիկատները և այդպիսով պոտենցիալ թույլ տալ չարամիտներին իմանալ, թե ինչ տեսակի քիմիական նյութեր կարող են պատրաստել իրենց ողբերգական չար ծրագրերի համար:

Ինքնավար համակարգերը կարող են ցուցադրաբար տեղավորվել այդ երկակի օգտագործման ծածկույթում:

Որոշ չափով, այդ իսկ պատճառով AI-ի էթիկան և էթիկական AI-ն այդքան կարևոր թեմա է: AI-ի էթիկայի կանոնները մեզ ստիպում են զգոն մնալ: AI տեխնոլոգները երբեմն կարող են զբաղված լինել տեխնոլոգիայով, մասնավորապես՝ բարձր տեխնոլոգիաների օպտիմալացումով: Նրանք պարտադիր չէ, որ հաշվի առնեն հասարակության ավելի մեծ ճյուղավորումները: Արհեստական ​​ինտելեկտի էթիկայի մտածելակերպ ունենալը և դա անբաժան կերպով կատարելը AI-ի զարգացման և դաշտի համար կենսական նշանակություն ունի համապատասխան AI արտադրելու համար, ներառյալ (գուցե զարմանալիորեն կամ հեգնանքով) գնահատումը, թե ինչպես է AI էթիկան ընդունվում ընկերությունների կողմից:

Բացի արհեստական ​​ինտելեկտի էթիկայի կանոնների կիրառումից, ընդհանուր առմամբ, կա համապատասխան հարց, թե արդյոք մենք պետք է ունենանք AI-ի տարբեր կիրառություններ կարգավորող օրենքներ: Նոր օրենքներ են մշակվում դաշնային, նահանգային և տեղական մակարդակներում, որոնք վերաբերում են արհեստական ​​ինտելեկտի մշակման տիրույթին և բնույթին: Նման օրենքներ մշակելու և ընդունելու ջանքերը աստիճանաբար են ընթանում: AI-ի էթիկան ծառայում է որպես նվազագույնը հաշվի առնելով, և գրեթե անկասկած որոշ չափով ուղղակիորեն կներառվի այդ նոր օրենքներում:

Տեղյակ եղեք, որ ոմանք համառորեն պնդում են, որ մեզ պետք չեն նոր օրենքներ, որոնք ընդգրկում են արհեստական ​​ինտելեկտը, և որ մեր գործող օրենքները բավարար են: Իրականում, նրանք նախազգուշացնում են, որ եթե մենք հաստատենք արհեստական ​​ինտելեկտի այս օրենքներից մի քանիսը, մենք կթուլացնենք ոսկե սագը՝ սահմանափակելով արհեստական ​​ինտելեկտի առաջընթացը, որն ապահովում է հսկայական հասարակական առավելություններ:

Ինքնավարությունը և զենքը որպես երկու կանոն

Կա մի բառակապակցություն, որը ոմանք օգտագործում են՝ նախազգուշացնելու բոլոր տեսակի զենքերով ինքնավար համակարգերի մասին, որոնք ստեղծվում են միասին որպես slaughterbots.

Սա բերում է լրացուցիչ ասպեկտ, որը մենք պետք է քննարկենք:

Արդյո՞ք զենքի ինքնավար համակարգը և/կամ ինքնավար համակարգը պետք է գերակշռի մահաբեր կամ մարդասպան ռոբոտին:

Ոմանք կպնդեն, որ մենք կարող ենք վճռականորեն ոչ մահաբեր նաև զինված ինքնավար համակարգեր: Այսպիսով, այդ տեսանկյունից, խորապես անտեղի կթվա օգտագործել այնպիսի արտահայտություններ, ինչպիսիք են սպանդի ռոբոտները կամ մարդասպան ռոբոտները: Ոչ մահացու տարբերակը, ենթադրաբար, կարող է զսպել կամ գործադրել այնպիսի վնաս, որը մահացու արդյունք չէ: Նման համակարգերը սպանող չեն, դրանք ավելի քիչ վնասվածքներ առաջացնող կարողություն ունեն: Մի գերագնահատեք կարողությունները, ասեք նրանք, ովքեր պնդում են, որ մենք չպետք է զբաղվենք բացահայտ սպանող մեքենայով:

Այսպիսով, մենք կարող ենք ունենալ սա.

  • Մահացու ինքնավար զենքի համակարգեր
  • Մահացու ինքնավար համակարգեր, որոնք զինված են
  • Ոչ մահաբեր ինքնավար զենքի համակարգեր
  • Ոչ մահաբեր ինքնավար համակարգեր, որոնք զինված են

Իհարկե, հակափաստարկն այն է, որ ցանկացած ինքնավար համակարգ, որը սպառազինվել է, թվում է, թե մահացու ոլորտ սահելու ներուժ ունի, նույնիսկ եթե ենթադրաբար նախատեսված է օգտագործել միայն ոչ մահաբեր հիմունքներով: Ոչ մահաբերից մահացու գնալու աստիճանական երկու քայլն արագորեն կկատարվի, երբ արդեն ձեռքի տակ ստանաք ինքնավար համակարգի միջով զենք: Ձեզ դժվար կլինի ապահովել երկաթե երաշխիք, որ ոչ մահաբերը չի հայտնվի մահացու ասպարեզում (չնայած ոմանք փորձում են դա անել, մաթեմատիկական թվացյալ տեսքով):

Նախքան ինքնավար համակարգերի և սպառազինության այս ընդհանուր թեմային շատ ավելի խորանալը, կարող է հարմար լինել նշել մեկ այլ բան, որը, թեև ակնհայտ է, պարտադիր չէ, որ տեսանելի լինի մտքի սկզբում:

Ահա այն:

  • Գոյություն ունի AI ասպեկտ, որն ինքնավար համակարգի մի մասն է
  • Կա սպառազինության ասպեկտ, որն այս հավասարման զենքային կողմն է
  • AI-ն կարող է նաև փոխկապակցված լինել զենքի հետ

Եկեք բացենք դա:

Մենք պետք է ենթադրենք, որ այսօրվա ինքնավար համակարգերը պահանջում են AI, որպես ինքնավար կողմերը առաջ քաշելու հիմքում ընկած համակարգչային միջոց: Ես նշում եմ սա, քանի որ դուք կարող եք փորձել պնդել, որ մենք կարող ենք օգտագործել ոչ AI-ի հետ կապված տեխնոլոգիաներ և տեխնիկա ինքնավար համակարգեր անելու համար, ինչը թեև ճիշտ է, բայց ավելի ու ավելի քիչ հավանական է թվում: Հիմնականում AI-ն հակված է թույլ տալ ավելի մեծ ինքնավարության մակարդակ, և մեծամասնությունը համապատասխանաբար օգտագործում է AI բարձր տեխնոլոգիաներ:

Լավ, այնպես որ մենք ունենք AI-ի վրա հիմնված հնարավորություն, որն ինչ-որ կերպ ներթափանցված է ինքնավար համակարգում և գործում է ինքնավար համակարգը ուղղորդելու և վերահսկելու համար:

Որպես կանոն, դա պահեք ձեր մատների վրա:

Ակնհայտ է, որ մենք նույնպես պետք է ունենանք զենքի ինչ-որ ձև, այլապես ինչու ենք մենք այստեղ քննարկում ինքնավար համակարգերի թեման: և զենքեր. Այնպես որ, այո, ակնհայտ է, որ կա այս կամ այն ​​տեսակի զենք։

Ես չեմ պատրաստվում խորանալ զենքի տեսակի մեջ, որը կարող է օգտագործվել: Դուք պարզապես կարող եք փոխարինել այն զինատեսակները, որոնք մտքովդ անցնում են: Հնարավոր է ճշգրիտ սպառազինություն լինի: Կարող է լինել զանգվածային ուղղվածություն ունեցող կործանարար սպառազինություն: Դա կարող է լինել փամփուշտներով կամ արկերով ինչ-որ բան: Դա կարող է լինել մի բան, որն ունի քիմիական նյութեր կամ ատոմային ցնդող բաղադրիչներ: Ցուցակն անվերջ է։

Լրացուցիչ նկատառումն այն է, թե արդյոք AI-ն փոխկապակցված է զենքի հետ, թե ոչ: AI-ն կարող է պարզապես զենքը տանել զբոսանքի: Չորս ոտանի ռոբոտի դեպքում, որը կրակում էր ատրճանակի վրա, հավանաբար ատրճանակը կրակում է մարդու կողմից, որի հեռակառավարման վահանակը միացված է զենքի գործարկմանը: Շան նման ռոբոտը նավարկում է տեսարանի վրա, և այնուհետև հեռավոր մարդը պետք է սեղմի ձգանը:

Մյուս կողմից, AI-ն կարող է լինել ձգան ձգողը, կարծես: AI-ն կարող էր ստեղծվել ոչ միայն նավարկելու և մանևրելու, այլև զենքը ակտիվացնելու համար: Այդ առումով, AI-ն անում է ամեն ինչ՝ A-ից մինչև Z: Հեռավոր մարդուց կախվածություն չկա իրերի զենքային կողմը կատարելու համար: AI-ն ծրագրված է դրա փոխարեն դա անելու համար:

Հստակեցնելու համար այս կոնկրետ օգտագործման դեպքում ինքնավար համակարգերը, որոնք զինված են, մենք ունենք այսպիսի հնարավորություններ.

  • Ինքնավար համակարգ. AI-ն աշխատում է ինքնավար համակարգն ամբողջությամբ ինքնուրույն
  • Ինքնավար համակարգ. AI-ն ղեկավարում է ինքնավար համակարգը, սակայն մարդը կարող է նաև միջամտել
  • Զենք. Հեռավոր մարդը ղեկավարում է զենքը (AI-ն չի աշխատում)
  • Զենք. AI-ն ղեկավարում է զենքը, բայց մարդը կարող է նաև միջամտել
  • Զենք. Արհեստական ​​ինտելեկտը լիովին ինքնուրույն է աշխատում զենքը

Ես նախկինում անդրադարձել եմ ինքնավար համակարգերի և ինքնավար տրանսպորտային միջոցների հետ կապված մարդակերություն ունենալու տարբերակներին, տես. հղումն այստեղ.

Երբ դիտում եք պարող և ցնծող չորս ոտանի ռոբոտների զվարճալի տեսանյութերը, նրանք սովորաբար ենթադրվում են, որ դրանք ռոբոտներ են, որոնք բացառապես նավարկվում են AI-ի կողմից (դե, դա սովորություն է կամ համարվում է պատշաճ վարվելակարգ նրանց մեջ, ովքեր խորապես այս հարցերում): Դա այն է, ինչ դուք կարող եք նաև իրավացիորեն ենթադրել: Իհարկե, դուք դա հաստատ չգիտեք: Հնարավոր է, որ ռոբոտներին ղեկավարում է հեռավոր օպերատորը: Հնարավորություն կա նաև, որ AI-ն կատարում է ուղղորդման մի մասը, և դա անում է նաև հեռավոր մարդկային օպերատորը, որը, հավանաբար, օգնում է AI-ին, եթե ռոբոտը ծանր դիրքի մեջ ընկնի և չկարողանա հաշվարկել կենսունակ միջոց՝ ինքն իրեն ազատելու համար:

Էությունն այստեղ այն է, որ կան բազմաթիվ նրբերանգներ, թե ինչպես են արհեստական ​​ինտելեկտը և ինքնավար համակարգերն ու սպառազինությունը կարող են միախառնվել: Ոմանք ունեն AI, որն աշխատում է ինքնավար համակարգով, բայց չի գործարկում սպառազինությունը: Մարդը, հավանաբար, հեռակա կարգով ղեկավարում է զենքը: Մեկ այլ տեսանկյուն այն է, որ սպառազինությունը միգուցե նախապես ակտիվացված է, և ինքնավար համակարգը տրամադրում է ակտիվացված զենքը, հետևաբար AI-ն ուղղակիորեն չի մասնակցել զենքի գործարկմանը ինքնին և փոխարենը հանդես է եկել որպես առաքման մեքենա: Եվ դա կարող է լինել, որ AI-ն առածական է բոլոր արհեստների համար և կատարում է ինքնավար համակարգի ասպեկտների ամբողջ գամմը նաև զենքի օգտագործման համար:

Վերցրեք ձեր ընտրությունը:

Միևնույն ժամանակ, խնդրում եմ, իմացեք, որ «մարդը հանգույցում» մեծ գործոն է, երբ խոսքը վերաբերում է այս թեմայի շուրջ բանավեճերին:

Ոմանց կողմից բաժանարար գիծն այն է, որ եթե AI-ն կատարում է թիրախավորումը և կրակոցը (կամ այն, ինչ պահանջում է զենքը), ապա ամբողջ հանդերձանքը և կաբուդլը անցել են առանց հողի: Սա, ըստ երևույթին, տարբերվում է սովորական կրակել և մոռանալ զենքերից, որոնք ունեն նախապես թիրախավորված մարդու կողմից որոշված ​​ընտրություն, ինչպես օրինակ պարեկային անօդաչու թռչող սարքը, որն ունի հրթիռ, որը պատրաստ է կրակել թիրախի վրա: Արդեն մարդու կողմից ընտրված.

Ոմանք զարմանում են, թե ինչու ինքնավար համակարգերը, որոնք սպառազինված են, միշտ չէ, որ ներառում են մարդ-ցողունի ամբողջ գործընթացում, երբ ինքնավար համակարգը գտնվում է ակտիվորեն ընթացող կարգավիճակում: Թվում է, թե մենք կարող ենք ավելի լավ լինել, եթե խիստ պահանջն այն է, որ բոլոր նման զենքով ինքնավար համակարգերը պետք է ունենան մարդ-ցողում, կա՛մ դա անելով ինքնավար համակարգի գործարկման, կա՛մ զենքը գործարկելու համար (կամ երկուսի համար): . Արհեստական ​​ինտելեկտի այս խառնուրդում մարդկային ենթադրյալ վստահ և կայուն ձեռք պահելը կարող է բոլորովին խորամանկ թվալ:

Պատրաստվեք պատճառների երկար ցանկին, թե ինչու դա անպայմանորեն իրագործելի չէ:

Հաշվի առեք այս դժվարությունները.

  • Human-in-the-loop-ը կարող է բավականաչափ արագ չլինել ժամանակին արձագանքելու համար
  • Human-in-the-loop-ը կարող է բավարար տեղեկատվություն չունենալ՝ պարտաճանաչ արձագանքելու համար
  • Human-in-the-loop-ը կարող է անհասանելի լինել անհրաժեշտ պահին
  • The Human-in-the-Loop-ը կարող է չկողմնորոշվել և անհրաժեշտության դեպքում չգործի
  • Մարդը «սխալ» որոշում կարող է կայացնել (համեմատաբար)
  • Human-in-the-loop-ը կարող է անհասանելի լինել համակարգից անհրաժեշտ պահին
  • Մարդը կարող է շփոթվել և ճնշվել
  • Etc.

Դուք, անկասկած, գայթակղվում եք նայելու մարդկային թուլությունների և սահմանափակումների այդ ցանկին, այնուհետև հանգել այն հանդիսավոր եզրակացության, որ ակնհայտ իմաստ ունի կտրել «մարդը ցիկլի մեջ» և փոխարենը միշտ օգտագործել AI: Սա կարող է լինել կամ բացառելով «մարդը օղակի մեջ» կամ գուցե արհեստական ​​ինտելեկտը կարողանա անտեսել արմատացած «մարդը օղակի մեջ» դիզայնը: Տե՛ս իմ վերլուծությունը, թե ինչպես AI-ի և մարդու մոտ առկա անհամաձայնությունները կարող են հանգեցնել անկայուն իրավիճակների, որը լուսաբանվում է հետևյալում. հղումն այստեղ.

Հաճախ, իրական ժամանակում մարդու վրա կենտրոնացած այս տեսակի բացասական կողմերի նսեմացնող ցանկը թողնվում է ինքնուրույն և երկար տպավորություն է թողնում, որ արհեստական ​​ինտելեկտը պետք է ինչ-որ կերպ ավելի խելամիտ ընտրություն լինի, քան մարդն է տիրում: . Մի ընկեք այդ դավաճանական ծուղակը։ Ներառվում են սթափեցնող փոխզիջումներ:

Դիտարկենք AI-ի հետևյալ հետևանքները.

  • Արհեստական ​​ինտելեկտը կարող է բախվել սխալի, որը կհանգեցնի այն մոլորության
  • AI-ն կարող է ծանրաբեռնված լինել և արգելափակվել առանց արձագանքելու
  • AI-ն կարող է պարունակել ծրագրավորողների սխալներ, որոնք առաջացնում են անկանոն վարքագիծ
  • AI-ն կարող է վնասվել իմպլանտացված չարագործ վիրուսով
  • AI-ն կարող է իրական ժամանակում տիրանալ կիբեր հաքերների կողմից
  • AI-ն կարող է անկանխատեսելի համարվել բարդությունների պատճառով
  • AI-ն կարող է հաշվողականորեն «սխալ» որոշում կայացնել (համեմատաբար)
  • Etc.

Վստահ եմ, որ դուք կարող եք տեսնել, որ փոխզիջումներ կան մարդու ցիկլի օգտագործման և բացառապես AI-ի վրա հիմնված լինելու միջև: Եթե ​​դուք գայթակղվում եք առաջարկել, որ պատրաստի լուծումը երկուսն էլ օգտագործելն է, ես պարզապես կցանկանայի ընդգծել, որ դուք կարող եք ստանալ լավագույնը երկու աշխարհներից, բայց կարող եք նաև ստանալ ամենավատը երկու աշխարհներից: Մի ենթադրեք, որ այն միշտ և վստահաբար կլինի լավագույնը երկու աշխարհներից:

Դուք կարող եք որոշ չափով զարմացած լինել AI-ի վերը թվարկված բացասական կողմերից մեկով, մասնավորապես, որ AI-ն կարող է լինել. անկանխատեսելի. Մենք սովոր ենք հավատալ, որ AI-ն պետք է լինի խիստ տրամաբանական և մաթեմատիկորեն ճշգրիտ: Որպես այդպիսին, դուք կարող եք նաև ակնկալել, որ AI-ն լիովին կանխատեսելի կլինի: Ենթադրվում է, որ մենք հստակ իմանանք, թե ինչ է անելու AI-ն: Ժամանակաշրջան, պատմվածքի ավարտ.

Կներեք այդ փուչիկը պայթելու համար, բայց կանխատեսելիության այս առասպելը սխալ բառ է: Ժամանակակից արհեստական ​​ինտելեկտի չափն ու բարդությունը հաճախ խայտառակություն է, որը չի կարող լիովին կանխատեսելի լինել: Սա երևում է Էթիկական AI-ի աղմուկում մեքենայական ուսուցման (ML) և խորը ուսուցման (DL) որոշ կիրառությունների վերաբերյալ մեր օրերում: Մի քիչ ավելի շուտ կբացատրեմ.

Բացի այդ, դուք կարող եք դիտել առաջիկա միտումների իմ վերջին վերլուծությունը՝ փորձելով ապահովել ստուգելի և մաթեմատիկորեն ապացուցելի AI համակարգերը AI անվտանգության ամենավերջին տարբերակի միջոցով, հղումն այստեղ.

Մտածումներ Ճանապարհի կանոնների վրա

Ես նշել էի թիրախներ և թիրախավորում հասկացությունը, որը բավականին ծանրաբեռնված տերմինաբանություն է, որն արժանի է մեծ ուշադրության:

Մենք կարող ենք խորհել այս մասին.

  • Թիրախներ, որոնք մարդիկ են
  • Թիրախներ, որոնք մարդիկ չեն, այլ կենդանի արարածներ են
  • Թիրախներ, որոնք մեկնաբանվում են որպես սեփականություն

Ենթադրենք, որ մենք ունենք ինքնավար համակարգ, որը զինված է: AI-ն օգտագործվում է ինքնավար համակարգը ղեկավարելու համար և օգտագործվում է սպառազինության համար: AI-ն անում է ամեն ինչ՝ A-ից մինչև Z: Չկա որևէ դրույթ մարդ-ի հանգույցում: Թիրախավորման առումով AI-ն կընտրի թիրախները։ Մարդկանց կողմից հաստատված նախնական թիրախավորում չկա: Փոխարենը, AI-ն ծրագրավորվել է ընդհանուր առմամբ պարզելու համար, թե արդյոք կան մարդիկ, որոնք պետք է թիրախավորվեն (գուցե թշնամական գործողությունների սկանավորում, որոշակի տեսակի համազգեստ և այլն):

Ինձ հետ այս մասին մինչ այժմ?

Այս սցենարը գրեթե այն մեկն է, որն ամենաշատ դժգոհությունն է առաջացնում զինված ինքնավար համակարգերի վերաբերյալ:

Հայտարարված մտահոգությունն այն է, որ AI-ն անում է (առնվազն) երեք բան, որոնք նրան չպետք է թույլատրվի անել.

  • Մարդկանց թիրախ դարձնելը որպես թիրախ
  • Թիրախավորում՝ առանց «մարդնախորշի» օգտագործման
  • Պոտենցիալ գործող անկանխատեսելիly

Ուշադրություն դարձրեք, որ կա ընդգծված հիշատակում AI-ի անկանխատեսելի լինելու վերաբերյալ մտահոգությունների մասին: Հնարավոր է, որ չնայած AI-ն ծրագրված է թիրախավորել որոշակի տեսակի մարդկանց, AI ծրագրավորումն այն չէ, ինչ մենք կարծում էինք, և AI-ն ի վերջո թիրախավորում է «ընկերներին», բացի նրանցից, որոնք AI-ն պետք է ընկալեր որպես «թշնամականներ»: » (կամ, գուցե փոխարենը): Ի լրումն սրա, նույնիսկ եթե մենք ընտրենք ներառել «մարդկանց ցիկլում» դրույթը, AI-ի անկանխատեսելիությունը կարող է նշանակել, որ երբ AI-ն պետք է խորհրդակցի «մարդկանց հանգույցի» հետ, այն չի հաջողվում անել: այդպես և գործում է առանց որևէ մարդու միջամտության:

Դուք կարող եք հետաքրքրել, որ Կարմիր Խաչի միջազգային կոմիտեն (ԿԽՄԿ) առաջարկել է երեք կետից բաղկացած ընդհանուր դիրքորոշում ինքնավար սպառազինության համակարգերի վերաբերյալ, որը մանրամասնում է այս տեսակի մտահոգությունները (ըստ ԿԽՄԿ-ի կայքի).

1. «Անկանխատեսելի ինքնավար սպառազինության համակարգերը պետք է հստակորեն կառավարվեն դուրս, հատկապես դրանց անխտիր ազդեցության պատճառով: Դրան լավագույնս կարելի է հասնել ինքնավար զենքի համակարգերի արգելքով, որոնք նախագծված կամ օգտագործված են այնպես, որ դրանց ազդեցությունը հնարավոր չլինի բավարար չափով հասկանալ, կանխատեսել և բացատրել»:

2. «Մարդկությունը պաշտպանելու էթիկական նկատառումներից ելնելով և միջազգային մարդասիրական իրավունքի կանոնները պահպանելու համար քաղաքացիական անձանց և մարտական ​​գործողությունների ժամանակ մարտիկների պաշտպանության համար, Պետք է բացառվի ինքնավար զենքի համակարգերի օգտագործումը մարդկանց թիրախ դարձնելու համար. Դա լավագույնս հնարավոր կլինի հասնել ինքնավար զենքի համակարգերի արգելման միջոցով, որոնք նախագծված կամ օգտագործվում են մարդկանց դեմ ուժ կիրառելու համար»:

3. «Քաղաքացիներին և քաղաքացիական օբյեկտները պաշտպանելու, միջազգային մարդասիրական իրավունքի կանոնները պահպանելու և մարդկությունը պաշտպանելու համար պետք է կարգավորվի ինքնավար զենքի համակարգերի նախագծումն ու օգտագործումը, որոնք արգելված չեն, այդ թվում՝ թիրախների տեսակների սահմանափակումները, ինչպես օրինակ՝ նրանց սահմանափակելն իր բնույթով ռազմական նպատակ հանդիսացող օբյեկտներով. օգտագործման ժամկետի, աշխարհագրական շրջանակի և մասշտաբի սահմանափակումներ, այդ թվում՝ հնարավորություն տալ մարդու դատողությունն ու վերահսկողությունը կոնկրետ հարձակման առնչությամբ. օգտագործման իրավիճակների սահմանափակումները, ինչպես օրինակ՝ նրանց սահմանափակելը այնպիսի իրավիճակներում, որտեղ քաղաքացիական անձինք կամ քաղաքացիական օբյեկտներ չկան. rՄարդ-մեքենա փոխազդեցության պահանջներ, մասնավորապես՝ ապահովելու արդյունավետ մարդկային վերահսկողություն և ժամանակին միջամտություն և ապաակտիվացում»։

Համապատասխան տեսակետի համաձայն, ՄԱԿ-ը (ՄԱԿ) Ժնևի Որոշ սովորական զենքերի մասին կոնվենցիայի (CCW) միջոցով հաստատել է մահացու ինքնավար զենքերի վերաբերյալ տասնմեկ ոչ պարտադիր ուղեցույց, ինչպես ասվում է առցանց հրապարակված պաշտոնական զեկույցի համաձայն (որը ներառում է հղումներ համապատասխան միջազգային մարդասիրական օգնությանը): Օրենք կամ IHL դրույթներ):

ա) Միջազգային մարդասիրական իրավունքը շարունակում է ամբողջությամբ կիրառել բոլոր սպառազինության համակարգերի նկատմամբ, ներառյալ մահաբեր ինքնավար սպառազինության համակարգերի հնարավոր զարգացումը և օգտագործումը.

(բ) Զենքի համակարգերի օգտագործման վերաբերյալ որոշումների համար մարդկային պատասխանատվությունը պետք է պահպանվի, քանի որ պատասխանատվությունը չի կարող փոխանցվել մեքենաներին: Սա պետք է դիտարկել սպառազինության համակարգի ողջ կյանքի ցիկլի ընթացքում.

գ) Մարդ-մեքենա փոխազդեցությունը, որը կարող է տարբեր ձևեր ունենալ և իրականացվել զենքի կյանքի ցիկլի տարբեր փուլերում, պետք է ապահովի, որ մահաբեր ինքնավար զենքի համակարգերի ոլորտում զարգացող տեխնոլոգիաների վրա հիմնված սպառազինության համակարգերի հնարավոր օգտագործումը համապատասխանությունը կիրառելի միջազգային իրավունքին, մասնավորապես ՄԻԴ-ին: Մարդ-մեքենա փոխազդեցության որակն ու չափը որոշելիս պետք է հաշվի առնել մի շարք գործոններ, ներառյալ գործառնական համատեքստը և ընդհանուր առմամբ սպառազինության համակարգի բնութագրերն ու հնարավորությունները.

(դ) CCW-ի շրջանակներում սպառազինության ցանկացած նոր համակարգ մշակելու, տեղակայելու և օգտագործելու պատասխանատվությունը պետք է ապահովվի կիրառելի միջազգային իրավունքի համաձայն, այդ թվում՝ մարդկային հրամանատարության և վերահսկման պատասխանատու շղթայի շրջանակներում նման համակարգերի գործարկման միջոցով.

ե) Միջազգային իրավունքով նախատեսված պետությունների պարտավորություններին համապատասխան՝ նոր զենքի, միջոցի կամ պատերազմի մեթոդի ուսումնասիրման, մշակման, ձեռքբերման կամ ընդունման ժամանակ պետք է որոշվի, թե արդյոք դրա օգտագործումը որոշ կամ բոլոր հանգամանքներում կարող է լինել. արգելված է միջազգային իրավունքով;

զ) մահացու ինքնավար զենքի համակարգերի, ֆիզիկական անվտանգության, համապատասխան ոչ ֆիզիկական երաշխիքների (ներառյալ կիբերանվտանգությունը հաքերային հարձակումներից կամ տվյալների կեղծումից) ոլորտում զարգացող տեխնոլոգիաների վրա հիմնված նոր սպառազինությունների համակարգերի մշակման կամ ձեռքբերման ժամանակ, ահաբեկչական խմբավորումների կողմից ձեռքբերման վտանգը. և պետք է հաշվի առնել տարածման ռիսկը.

է) Ռիսկերի գնահատումը և մեղմացման միջոցառումները պետք է լինեն ցանկացած սպառազինության համակարգերում զարգացող տեխնոլոգիաների նախագծման, մշակման, փորձարկման և տեղակայման փուլի մի մասը.

(ը) Պետք է ուշադրություն դարձնել մահացու ինքնավար սպառազինությունների համակարգերի ոլորտում զարգացող տեխնոլոգիաների կիրառմանը` պահպանելով ՄԻՊ-ի և այլ կիրառելի միջազգային իրավական պարտավորությունները.

(i) պոտենցիալ քաղաքական միջոցներ մշակելիս մահաբեր ինքնավար սպառազինության համակարգերի ոլորտում զարգացող տեխնոլոգիաները չպետք է անտրոպոմորֆիզացվեն.

(ժ) Քննարկումները և ցանկացած պոտենցիալ քաղաքականության միջոցներ, որոնք ձեռնարկվել են ՄԿՀ-ի համատեքստում, չպետք է խոչընդոտեն խելացի ինքնավար տեխնոլոգիաների խաղաղ օգտագործման առաջընթացին կամ դրանց հասանելիությանը.

ժա) CCW-ն առաջարկում է համապատասխան շրջանակ մահաբեր ինքնավար սպառազինության համակարգերի ոլորտում զարգացող տեխնոլոգիաների հետ կապված խնդիրների լուծման համար՝ Կոնվենցիայի նպատակների և նպատակների համատեքստում, որը ձգտում է հավասարակշռություն հաստատել ռազմական անհրաժեշտության և մարդասիրական նկատառումների միջև:

Դժբախտություն, որում մենք հայտնվում ենք

Պատերազմի այս զանազան օրենքները, զինված հակամարտությունների օրենքները կամ IHL-ը (Միջազգային մարդասիրական օրենքները) ծառայում են որպես կենսական և միշտ խոստումնալից ուղեցույց՝ հաշվի առնելու, թե ինչ կարող ենք փորձել անել ինքնավար համակարգերի ի հայտ գալու հետ կապված, որոնք զինված են, անկախ նրանից՝ առանցքային նախագծով կամ փաստացի մեթոդներով:

Մենք կարող ենք անկեղծորեն մաղթել, որ մահաբեր զենքով ինքնավար համակարգերի արգելքը խստորեն և հնազանդորեն պահպանվի: Խնդիրն այն է, որ ամենաանկեղծ արգելքներից որևէ մեկում խորամանկորեն կարելի է գտնել շատ տեղաշարժեր: Ինչպես ասում են՝ կանոնները խախտելու համար են: Կարող եք գրազ գալ, որ այնտեղ, որտեղ ամեն ինչ անկայուն է, ռիֆֆրաֆը կբացի բացերը և կփորձի աչքով անել կանոնները:

Ահա մի քանի հնարավոր բացթողումներ, որոնք արժանի են ուշադրության.

  • Ոչ մահացու պահանջներ. Պատրաստել ոչ մահաբեր ինքնավար սպառազինության համակարգեր (կարծես թե կարգին է, քանի որ այն գտնվում է արգելքի սահմանից դուրս), որը դուք կարող եք մի փոքր ցրտահարել դառնալ մահացու (միայն վերջին պահին դուրս կգաք արգելքից):
  • Միայն ինքնավար համակարգի պահանջները. Պահպանեք արգելքը՝ չստեղծելով մահացու վրա կենտրոնացված ինքնավար համակարգեր, միևնույն ժամանակ, նույնքան առաջընթաց գրանցեք ամենօրյա ինքնավար համակարգերի ստեղծման հարցում, որոնք (դեռևս) զենք չեն ստացել, բայց դուք կարող եք մի փոքր արդիականացնել և զինվել:
  • Չինտեգրված որպես մեկ պահանջներ. Ստեղծեք ինքնավար համակարգեր, որոնք ամենևին էլ սպառազինված չեն, և երբ ժամանակը գա, խոզուկ զենքի ձևավորում այնպես, որ դուք կարող եք փորձել բուռն կերպով պնդել, որ դրանք երկու առանձին տարրեր են և հետևաբար պնդել, որ դրանք չեն մտնում «ամենը մեկում» դասակարգման մեջ: ինքնավար զենքի համակարգ կամ նրա զարմիկ.
  • Պնդում է, որ ինքնավար չէ. Ստեղծեք այնպիսի զենքի համակարգ, որը կարծես թե ինքնավար հզորություններ չունի։ Տեղ թողեք այս, ենթադրաբար, ոչ ինքնավար համակարգում՝ AI-ի վրա հիմնված ինքնավարությունը բաց թողնելու համար: Անհրաժեշտության դեպքում միացրեք ինքնավարությունը, և դուք պատրաստ եք գլորվել (մինչ այդ, թվում է, դուք չէիք խախտում արգելքը):
  • այլ

Բազմաթիվ այլ արտահայտված դժվարություններ կան մահաբեր ինքնավար սպառազինությունների համակարգերի բացահայտ արգելման հետ կապված: Ես կանդրադառնամ դրանցից ևս մի քանիսին:

Որոշ փորձագետներ պնդում են, որ արգելքը հատկապես օգտակար չէ, և դրա փոխարեն պետք է լինեն կարգավորող դրույթներ: Գաղափարն այն է, որ այդ միջոցները թույլատրվելու են, բայց խստորեն վերահսկվելու են: Նախատեսվում է օրինական կիրառումների մի շարք՝ թիրախավորման օրինական եղանակների, կարողությունների օրինական տեսակների, օրինական համաչափության և այլնի հետ մեկտեղ:

Նրանց կարծիքով՝ ուղիղ արգելքը նման է գլուխդ ավազի մեջ դնելուն և ձևացնել, թե սենյակում գտնվող փիղը գոյություն չունի: Այս վեճը, սակայն, արյունը եռում է նրանց, ովքեր հակադարձում են այն փաստարկին, որ արգելք սահմանելով՝ դուք ի վիճակի եք կտրուկ նվազեցնել նման համակարգերի հետամուտ լինելու այլապես գայթակղությունը: Իհարկե, ոմանք կպարզեն արգելքը, բայց հուսով ենք, որ շատերը չեն անի: Այնուհետև դուք կարող եք կենտրոնացնել ձեր ուշադրությունը շողոքորթողների վրա և ստիպված չլինեք ձեր ուշադրությունը բաժանել բոլորի վրա:

Այս բանավեճերը պտտվում են:

Մեկ այլ հաճախ նկատվող մտահոգություն այն է, որ նույնիսկ եթե լավը պահպանի արգելքը, վատը չի կատարվի: Սա լավը դնում է ոջլոտ կեցվածքի մեջ: Վատերը կունենան այս տեսակի զինված ինքնավար համակարգեր, իսկ լավը՝ ոչ: Երբ բացահայտվեն այն, որ վատերն ունեն դրանք, լավը շատ ուշ կլինի հասնելու համար: Մի խոսքով, միակ խելացի բանը, որ պետք է անել, կրակը կրակով պայքարելուն պատրաստվելն է:

Կա նաև զսպման դասական վեճ: Եթե ​​լավը նախընտրում է զենքով ինքնավար համակարգեր ստեղծել, դա կարող է օգտագործվել՝ վատերին հետ պահելու վեճի մեջ մտնելուց: Կա՛մ լավը ավելի լավ կզինվի և այդպիսով կխանգարի վատերին, կա՛մ լավը պատրաստ կլինի, երբ վատերը, հավանաբար, բացահայտեն, որ նրանք ամբողջ ընթացքում գաղտնի կերպով մշակել են այդ համակարգերը:

Այս հաշվիչներին հակադրվում է այն, որ զենքով ինքնավար համակարգեր ստեղծելով՝ դուք սպառազինությունների մրցավազք եք մղում: Մյուս կողմը կձգտի նույնն ունենալ։ Նույնիսկ եթե նրանք տեխնոլոգիապես ի վիճակի չեն նորովի ստեղծել նման համակարգեր, նրանք այժմ կկարողանան գողանալ «լավերի» ծրագրերը, հակադարձել բարձր տեխնոլոգիաների ճարտարությունը կամ ընդօրինակել այն, ինչ թվում է, թե փորձված և իրական է։ գործն ավարտելու միջոց:

Ահա, ոմանք հակադարձում են, այս ամենը կարող է հանգեցնել հակամարտությունների կրճատմանը, կարծես թե փոխադարձաբար: Եթե ​​A կողմն իմանա, որ B կողմն ունի այդ մահաբեր ինքնավար համակարգերի զենքերը, իսկ B կողմն իմանա, որ A կողմն ունի դրանք, նրանք կարող են ամուր նստել և չհարվածել: Սա ունի փոխադարձ երաշխավորված ոչնչացման (MAD) թրթիռների այդ հստակ աուրան:

Եվ այսպես շարունակ:

AI-ն ինքնավարության մեջ

Եկեք համոզվենք, որ մենք նույն էջում ենք այսօրվա AI-ի բնույթի վերաբերյալ:

Այսօր չկա որևէ AI, որը զգայուն է: Մենք սա չունենք: Մենք չգիտենք, թե արդյոք հնարավո՞ր է խելացի AI-ն: Ոչ ոք չի կարող տեղին կանխագուշակել, թե արդյոք մենք կհասնենք խելամիտ AI-ին, և ոչ էլ արդյոք զգայական AI-ն ինչ-որ կերպ հրաշքով ինքնաբերաբար կառաջանա հաշվողական ճանաչողական գերնոր աստղի տեսքով (սովորաբար կոչվում է եզակիություն, տե՛ս իմ լուսաբանումը այստեղ. հղումն այստեղ).

AI-ի տեսակը, որի վրա ես կենտրոնանում եմ, բաղկացած է ոչ զգայուն AI-ից, որն այսօր ունենք: Եթե ​​ուզենայինք կատաղի ենթադրություններ անել զգայուն AI, այս քննարկումը կարող է գնալ արմատապես այլ ուղղությամբ: Զգացող AI-ն ենթադրաբար մարդկային որակի կլիներ: Պետք է հաշվի առնել, որ զգայուն AI-ն մարդու ճանաչողական համարժեքն է: Ավելին, քանի որ ոմանք ենթադրում են, որ մենք կարող ենք ունենալ սուպեր-խելացի AI, կարելի է պատկերացնել, որ այդպիսի AI-ն կարող է ավելի խելացի լինել, քան մարդիկ (սուպեր-խելացի AI-ի իմ հետազոտության համար, տես. լուսաբանումն այստեղ).

Եկեք ամեն ինչ ավելի պարզ պահենք և հաշվի առնենք այսօրվա հաշվողական ոչ զգայուն AI-ն:

Գիտակցեք, որ այսօրվա AI-ն ի վիճակի չէ «մտածել» մարդկային մտածողությանը հավասար: Երբ դուք շփվում եք Alexa-ի կամ Siri-ի հետ, խոսակցական կարողությունները կարող են նման լինել մարդկային կարողություններին, բայց իրականությունն այն է, որ այն հաշվողական է և չունի մարդկային ճանաչողություն: AI-ի վերջին դարաշրջանը լայնորեն օգտագործել է մեքենայական ուսուցում (ML) և Deep Learning (DL), որոնք օգտագործում են հաշվողական օրինաչափությունների համընկնումը: Սա հանգեցրել է արհեստական ​​ինտելեկտի համակարգերի, որոնք ունեն մարդու նման հակումների տեսք: Միևնույն ժամանակ, այսօր չկա որևէ արհեստական ​​բանականություն, որն ունի ողջամտության նմանություն և ոչ էլ ունի ուժեղ մարդկային մտածողության ճանաչողական հրաշք:

Շատ զգույշ եղեք այսօրվա արհեստական ​​ինտելեկտը մարդաբանական դարձնելուց:

ML/DL-ը հաշվողական օրինաչափությունների համապատասխանության ձև է: Սովորական մոտեցումն այն է, որ դուք հավաքում եք տվյալներ որոշումներ կայացնելու առաջադրանքի վերաբերյալ: Դուք սնուցում եք տվյալները ML/DL համակարգչային մոդելների մեջ: Այդ մոդելները ձգտում են գտնել մաթեմատիկական օրինաչափություններ: Այդպիսի օրինաչափություններ գտնելուց հետո, եթե գտնվեն, ապա արհեստական ​​ինտելեկտի համակարգը կօգտագործի այդ օրինաչափությունները նոր տվյալների հանդիպելիս: Նոր տվյալների ներկայացումից հետո «հին» կամ պատմական տվյալների վրա հիմնված օրինաչափությունները կիրառվում են ընթացիկ որոշում կայացնելու համար:

Կարծում եմ, դուք կարող եք կռահել, թե ուր է սա գնում: Եթե ​​մարդիկ, ովքեր որոշումներ են կայացնում, իրենց մեջ ներդնում են անբարենպաստ կողմնակալություն, ապա հավանականությունն այն է, որ տվյալներն արտացոլում են դա նուրբ, բայց նշանակալի ձևերով: Մեքենայի ուսուցումը կամ խորը ուսուցման հաշվողական օրինաչափությունների համընկնումը պարզապես կփորձի համապատասխանաբար մաթեմատիկորեն նմանակել տվյալները: Առողջ դատողության կամ AI-ի կողմից ստեղծված մոդելավորման այլ զգալի ասպեկտներ ինքնին չկա:

Ավելին, AI մշակողները նույնպես կարող են չհասկանալ, թե ինչ է կատարվում: ML/DL-ի գաղտնի մաթեմատիկան կարող է դժվարացնել այժմ թաքնված կողմնակալությունների բացահայտումը: Դուք իրավամբ հույս կունենաք և ակնկալում եք, որ AI մշակողները կփորձարկեն պոտենցիալ թաղված կողմնակալության համար, թեև դա ավելի բարդ է, քան կարող է թվալ: Մեծ հավանականություն կա, որ նույնիսկ համեմատաբար լայնածավալ փորձարկումների դեպքում, ML/DL-ի օրինաչափությունների համապատասխանող մոդելներում դեռևս առկա կլինեն կողմնակալություններ:

Դուք կարող եք ինչ-որ չափով օգտագործել աղբի մեջ աղբի դուրս գալու հայտնի կամ տխրահռչակ ասացվածքը: Բանն այն է, որ սա ավելի շատ նման է կողմնակալություններին, որոնք նենգորեն ներարկվում են որպես AI-ի մեջ ընկղմված կողմնակալություններ: AI-ի որոշումների կայացման ալգորիթմը (ADM) աքսիոմատիկորեն ծանրաբեռնված է անհավասարություններով:

Ոչ լավ.

Այդ հավելյալ հիմնարար նախապատմությամբ մենք ևս մեկ անգամ դիմում ենք ինքնավար համակարգերին և սպառազինության թեմային: Ավելի վաղ մենք տեսանք, որ AI-ն մտնում է ինքնավար համակարգի բաղադրիչի մեջ և կարող է նաև մտնել սպառազինության բաղադրիչ: Այսօրվա AI-ն զգայուն չէ: Սա արժե կրկնել, և ես ընդգծեմ սա այս հարցերի վերաբերյալ լրացուցիչ պատկերացումների համար:

Եկեք ուսումնասիրենք որոշ սցենարներ՝ տեսնելու, թե ինչպես է սա կարևոր նկատառում: Ես մի պահ կհրաժարվեմ այս թեմայի վերաբերյալ պատերազմական կողմնորոշումից և ցույց կտամ, թե ինչպես է այն ներթափանցում բազմաթիվ այլ սոցիալական միջավայրերում: Համապատասխանաբար հաստատվեք:

Արհեստական ​​ինտելեկտի վրա հիմնված ինքնավար համակարգը, ինչպիսին է ինքնավար մեքենան, որը մենք պետք է ասենք, որ որևէ առնչություն չունի զենքի հետ, իր ճանապարհն է անցնում նորմալ տեղանքում: Մարդը գալիս է ինքնավար մեքենայից օգտվելու համար: Անձը զինված է կանխագուշակող զենքով։ Այս կոնկրետ սցենարի քննարկման համար ենթադրեք, որ մարդը մտքում ինչ-որ անբարենպաստ բան ունի: Անձը նստում է ինքնավար մեքենա (կրում է իր զենքը՝ թաքցված կամ չթաքցնելով, ցանկացած դեպքում):

Ինքնավար մեքենան շարժվում է դեպի ցանկացած ուղղություն, որը վարորդը խնդրել է: Այս դեպքում, AI-ն պարզապես ծրագրային կերպով տեղափոխում է այս ուղևորին մեկ պիկապ վայրից մինչև նշանակված վայր, ճիշտ այնպես, ինչպես դա անում էր ամեն օր հնարավոր տասնյակ կամ հարյուրավոր ուղևորությունների ընթացքում:

Եթե ​​սա լիներ մարդու վարորդ և մարդու կողմից ղեկավարվող մեքենա, ենթադրաբար, կա որոշակի հնարավորություն, որ մարդ վարորդը կհասկանար, որ ուղևորը զինված է և, կարծես, անբարոյական մտադրություններ ունի: Մարդ վարորդը կարող է հրաժարվել մեքենան վարելուց: Կամ մարդ վարորդը կարող է մեքենայով հասնել ոստիկանական բաժանմունք։ Կամ միգուցե մարդ վարորդը կարող է փորձել ենթարկել զինված ուղևորին (հայտնվում են դեպքեր) կամ ետ պահել ուղևորին իր զենքը օգտագործելուց: Դա բավականին բարդ է, և կարող են լինել ցանկացած շարք տատանումներ: Դժվար կլինեք պնդել, որ կա միայն մեկ ճիշտ պատասխան նման իրավիճակի լուծման համար: Ցավոք, իրավիճակը մտահոգիչ է և ակնհայտորեն վտանգավոր:

AI-ն այս դեպքում դժվար թե ծրագրավորվի այդ տեսակի հնարավորություններից որևէ մեկի համար: Մի խոսքով, զինված ուղևորը կարող է օգտագործել իր զենքը՝ դա անելով ինքնավար մեքենայի ներսում՝ մեքենա վարելու ընթացքում: AI վարորդական համակարգը կշարունակի ընթանալ երկայնքով, և ինքնավար մեքենան կշարունակի շարժվել դեպի ուղևորի նշված նշանակումը (ենթադրելով, որ նպատակակետն այլ կերպ չի համարվում սահմաններից դուրս):

Ժամանակակից արհեստական ​​ինտելեկտի վարորդական համակարգերից շատերը միայն հաշվողականորեն կենտրոնացած կլինեն ճանապարհի վրա և ոչ թե վարորդի ջանքերի վրա:

Ամեն ինչ կարող է սրանից ավելի վատանալ:

Ենթադրենք, ինչ-որ մեկը ցանկանում է մի փունջ մթերային ապրանքներ տեղափոխել մի վայր, որտեղ կարիքավորների համար լրացուցիչ սնունդ են վերցնում: Անձը պահանջում է ինքնավար մեքենա և մթերային տոպրակները դնում է մեքենայի հետևի նստատեղի վրա: Նրանք չեն պատրաստվում ճանապարհորդել և պարզապես օգտագործում են ինքնավար մեքենան իրենց համար սննդի տոպրակներ առաքելու համար:

Կատարյալ լավ է թվում:

Պատկերացրե՛ք, որ ահավոր մարդը նախընտրում է զենքի ինչ-որ ձև տեղադրել ինքնավար մեքենայի մեջ, այլ ոչ թե մթերային պայուսակների ավելի խաղաղ հասկացությունը: Կարծում եմ՝ կարող եք կռահել, թե ինչ կարող է լինել։ Սա մտահոգություն է, որը ես բազմիցս հորդորում եմ իմ սյունակներում և նախազգուշացնում, որ մենք պետք է ավելի շուտ հաղթահարենք:

Այս տեսակի սցենարներին առաջարկվող պատասխաններից մեկն այն է, որ, հավանաբար, բոլոր ինքնավար մեքենաները կարող են ծրագրավորվել այնպես, որ օգտագործեն իրենց տեսախցիկները և այլ սենսորները՝ փորձելով պարզել, թե արդյոք պոտենցիալ ուղևորը զինված է և ունի ստոր մտադրություններ: Միգուցե AI-ն ծրագրավորվեր դա անելու համար: Կամ արհեստական ​​ինտելեկտը էլեկտրոնային եղանակով և լուռ զգուշացնում է հեռավոր մարդկային օպերատորին, որն այնուհետև տեսախցիկների միջոցով տեսողականորեն և այլ կերպ կզննի և, հնարավոր է, շփվի ուղևորի հետ: Այս ամենը որդերի բարդ և պոտենցիալ անլուծելի տուփի մի մասն է, որն առաջացնում է գաղտնիության ինտենսիվ խնդիրներ և այլ պոտենցիալ էթիկական AI մտահոգություններ: Տես իմ լուսաբանումը այստեղ հղումն այստեղ.

Մյուս փոքր-ինչ նման այլընտրանքն այն է, որ AI-ն պարունակում է ներկառուցված էթիկայի ծրագրավորում, որը փորձում է AI-ին հնարավորություն տալ կատարել էթիկական կամ բարոյական դատողություններ, որոնք սովորաբար վերապահված են մարդկային որոշումներ կայացնողներին: Ես ուսումնասիրել եմ AI-ում ներկառուցված հաշվողական էթիկայի կանխագուշակող սարքերի պատրաստման այս տեսակները, տես. հղումն այստեղ և հղումն այստեղ.

Վերադառնալով մարտադաշտի սցենարին, պատկերացրեք, որ մահացու ինքնավար սպառազինության համակարգն անցնում է մարտական ​​գոտու վերևում: AI-ն գործարկում է ինքնավար համակարգը: AI-ն գործարկում է զենքերը նավի վրա: Մենք ավելի վաղ պատկերացրել էինք այն հնարավորության մասին, որ արհեստական ​​ինտելեկտը կարող է ծրագրավորվել՝ զննելու համար թշնամական թվացող շարժումները կամ մարդկային թիրախների այլ ցուցիչներ, որոնք համարվում են վավեր մարտիկներ:

Արդյո՞ք այս նույն AI-ն պետք է ունենա ինչ-որ էթիկական կողմնորոշված ​​բաղադրիչ, որը կձգտի հաշվողականորեն դիտարկել, թե ինչ կարող է անել «Մարդը օղակի մեջ»՝ գործելով ինչ-որ իմաստով «մարդը օղակում» ունենալու փոխարեն:

Ոմանք ասում են, որ այո, եկեք հետամուտ լինենք դրան: Ոմանք սարսափով ետ են կանգնում և ասում, որ դա կամ անհնար է, կամ այլ կերպ խախտում է մարդկության սրբությունը:

Եվս մեկ բանկա ճիճուներ:

Եզրափակում

Նրանց համար, ովքեր հետաքրքրված են այս թեմայով, դեռ շատ բան կա քննարկելու:

Ես ձեզ արագ ճաշակեմ մեկ հուզիչ հանելուկի մասին:

Մենք սովորաբար ակնկալում ենք, որ մարդն ի վերջո պատասխանատվություն կկրի այն ամենի համար, ինչ տեղի է ունենում պատերազմի ժամանակ: Եթե ​​AI-ն վերահսկում է ինքնավար զենքի համակարգ կամ վերահսկում է ինքնավար համակարգը, որը, հավանաբար, սպառազինված է, և այս համակարգը մարտի դաշտում անում է մի բան, որը համարվում է անբարեխիղճ, ո՞վ կամ ինչն է մեղավոր դրա համար:

Դուք կարող եք պնդել, որ AI-ն պետք է պատասխանատվության ենթարկվի: Բայց եթե այո, ի՞նչ է դա նշանակում: Մենք դեռ չենք համարում այսօրվա AI-ն իրավաբանական անձի մարմնացում, տե՛ս իմ բացատրությունը այստեղ հղումն այստեղ. ԱԻ-ի դեպքում պոչը էշին չկպցնել: Հավանաբար, եթե AI-ն մի օր դառնա զգայուն, դուք կարող եք փորձել դա անել: Մինչ այդ, սա մի փոքր հասանելի է (գումարած, ինչպիսի տույժերի կամ հետևանքների կենթարկվի AI-ն, տե՛ս իմ վերլուծությունը այստեղ հղումն այստեղ և հղումն այստեղ, օրինակ).

Եթե ​​AI-ն պատասխանատվության ենթարկվող կասկածյալը չէ, ապա մենք, բնականաբար, կարող ենք ասել, որ այն ամենը, ինչ մարդիկ կամ մարդիկ ստեղծել են արհեստական ​​ինտելեկտը, պետք է պատասխանատվության ենթարկվեն: Կարո՞ղ եք դա անել, եթե արհեստական ​​ինտելեկտը պարզապես աշխատում էր ինքնավար համակարգով, և որոշ մարդիկ եկան, որոնք զուգակցեցին այն զենքի պատրաստման հետ: Դուք գնում եք արհեստական ​​ինտելեկտի մշակողների հետևից: Կամ նրանք, ովքեր տեղակայել են AI-ն: Թե՞ պարզապես զինագործ դերասանը:

Ես վստահ եմ, որ դուք կհասկանաք այն գաղափարը, որ ես իմ սրտառուչ քննարկման ընթացքում միայն այսբերգի գագաթն եմ դիպչել:

Առայժմ, եկեք առաջ գնանք և ամփոփենք այս դիսկուրսը: Դուք կարող եք հիշել, որ Ջոն Լայլին Euphues: The Anatomy of Wit 1578 թվականին հիշարժան կերպով հայտարարեց, որ սիրո և պատերազմի մեջ ամեն ինչ արդար է:

Արդյո՞ք նա մտքում կունենար ինքնավար սպառազինության համակարգերի ի հայտ գալը և նմանապես ինքնավար համակարգերի հայտնվելը, որոնք զինված են:

Մենք, անշուշտ, պետք է դա դնենք մեր գլխում, անմիջապես:

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- զենք-համակարգեր-և-սատանայական-զինված-սատանայական-սատանայական-սարքավորված-ինքնավար-սարքերի-շահագործում/