AI-ի էթիկան և արհեստական ​​ինտելեկտի օրենքը, որոնք ծանր հարցեր են տալիս այդ նոր խոստման մասին պարող ռոբոտ արտադրողների կողմից՝ ասելով, որ նրանք կկանխեն AI-ի սպառազինությունը

Հավանաբար, անցյալ շաբաթ դուք տեսել եք նորություններում կամ նկատել եք սոցիալական ցանցերում որոշ ռոբոտ արտադրողների կողմից հայտարարված խոստումը ընդհանուր նշանակության ռոբոտների արհեստական ​​ինտելեկտից զենքից խուսափելու իրենց դավանած նպատակների վերաբերյալ: Ես ձեզ մի պահ կներկայացնեմ մանրամասների միջով, այնպես որ մի անհանգստացեք, եթե չհասկացաք այս հարցը:

Այս հռչակագրին արձագանքը եղել է արագ և, հավանաբար, ինչպես միշտ մեր բևեռացված հասարակության մեջ, եղել է և՛ գովասանք, և՛ երբեմն ծաղրական քննադատական ​​կամ բացահայտ կատաղի թերահավատ:

Դա երկու աշխարհների հեքիաթ է։

Մի աշխարհում ոմանք ասում են, որ հենց դա է մեզ անհրաժեշտ պատասխանատու AI ռոբոտ մշակողները պետք է հայտարարեն.

Փառք Աստծո, որ ճիշտ կողմում եք մի հարցի, որն աստիճանաբար կդառնա ավելի տեսանելի և ավելի մտահոգիչ: Այդ սրամիտ պարող ռոբոտները անհանգստացնող են, քանի որ շատ հեշտ է դրանք նորից ջարդել՝ զենք կրելու և վատագույն ձևերով օգտագործելու համար (դա կարող եք ստուգել ինքներդ՝ այցելելով սոցիալական ցանցեր, և կան բազմաթիվ տեսանյութեր, որտեղ ցուցադրվում են գնդացիրներով զինված պարող ռոբոտներ և այլ սպառազինություն):

Մետաղադրամի մյուս երեսն ասում է, որ գրավ կոչվածը ոչ այլ ինչ է, քան մարքեթինգային կամ հասարակայնության հետ կապերի հնարք (որպես կողքի նշում, որևէ մեկին ծանո՞թ է գրավի և նվիրատվության տարբերությունը): Ինչևէ, կասկածողները հորդորում են, որ սա անսանձ առաքինության ազդանշան է պարող ռոբոտների համատեքստում։ Տեսնում եք, ողբալն այն փաստի համար, որ ընդհանուր նշանակության ռոբոտները կարող են զինվել, անշուշտ, արժե և ջանասիրաբար քննարկում է, թեև պարզապես պնդելը, որ արտադրողը դա չի անի, հավանաբար դատարկ խոստում է, ոմանք պնդում են:

Ընդհանուր առմամբ, ամբողջ հարցը հանգում է AI-ի էթիկայի և AI օրենքի նկատառումների բավականին մեծ շարք: Մենք մանրակրկիտ կերպով կբացենք թեման և կտեսնենք, թե ինչպես է սա էթիկական և օրինական արհեստական ​​ինտելեկտի խառնաշփոթի կրկնակի հարված: AI-ի էթիկայի և AI օրենքի իմ շարունակական և ընդարձակ լուսաբանման համար տե՛ս հղումն այստեղ և հղումն այստեղ, պարզապես մի քանի անուն:

Այս քննարկման ընթացքում ես կանդրադառնամ նաև արհեստական ​​ինտելեկտի սպառազինության վտանգների իմ նախկին վերլուծություններին, ինչպիսին է իմ խորը գնահատականը. հղումն այստեղ. Դուք կարող եք դիտել այդ դիսկուրսը լրացուցիչ կուլիսային մանրամասների համար:

Բաց նամակ, որը բացում է ճիճուների բանկա

Եկեք սկսենք այս վերլուծությունը՝ ուշադիր քայլ առ քայլ ուսումնասիրելով Open Letter-ը, որը վերջերս հրապարակվել է վեց համեմատաբար հայտնի առաջադեմ ռոբոտ արտադրողների կողմից՝ Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics և Unitree: Մեծ հաշվով, ես կռահում եմ, որ դուք հիմնականում տեսել եք Boston Dynamics ռոբոտները, ինչպիսիք են նրանք, ովքեր չորս ոտքերի վրա պտտվում են: Նրանք կարծես շան նման են, և մենք հաճույք ենք ստանում տեսնելով նրանց շուրջը վազվզելիս:

Ինչպես ես նախկինում և բազմիցս նախազգուշացրել եմ, նման «պարող» ռոբոտների օգտագործումը՝ որպես լայն հանրությանը համոզելու միջոց, որ այս ռոբոտները սրամիտ և պաշտելի են, ցավոք սրտի, մոլորեցնում է և շեղվում նրանց մարդակերպության առատ որոգայթների մեջ: Մենք սկսում ենք մտածել մետաղի և պլաստիկի այս կարծրացած կտորների մասին, ասես դրանք համարժեք են փաթաթված հավատարիմ շան: Այս ռոբոտներին ընդունելու մեր պատրաստակամությունը հիմնված է անվտանգության և վստահության կեղծ զգացողության վրա: Իհարկե, դուք պետք է գումար վաստակեք, և դա անելու հավանականությունը մեծանում է պարող ռոբոտների շուրջ շրջելով, բայց դա, ցավոք, բաց է թողնում կամ թվում է, թե թաքցնում է իրական փաստը, որ այս ռոբոտները ռոբոտներ են, և որ ռոբոտներին կառավարող AI-ն կարող է սխալ մշակվել: կամ շեղվել:

Նկատի ունեցեք AI-ի այս հետևանքները (քաղված AI-ի սպառազինության մասին իմ հոդվածից, որը գտնվում է. հղումն այստեղ):

  • Արհեստական ​​ինտելեկտը կարող է բախվել սխալի, որը կհանգեցնի այն մոլորության
  • AI-ն կարող է ծանրաբեռնված լինել և արգելափակվել առանց արձագանքելու
  • AI-ն կարող է պարունակել ծրագրավորողների սխալներ, որոնք առաջացնում են անկանոն վարքագիծ
  • AI-ն կարող է վնասվել իմպլանտացված չարագործ վիրուսով
  • AI-ն կարող է իրական ժամանակում տիրանալ կիբեր հաքերների կողմից
  • AI-ն կարող է անկանխատեսելի համարվել բարդությունների պատճառով
  • AI-ն կարող է հաշվողականորեն «սխալ» որոշում կայացնել (համեմատաբար)
  • Etc.

Սրանք այն կետերն են, որոնք վերաբերում են AI-ին, որն այն տեսակին է, որն իսկապես ստեղծվել է սկզբում ճիշտ բան անելու համար:

Ի լրումն այդ նկատառումների, դուք պետք է ներառեք AI համակարգեր, որոնք ստեղծված են սկզբից վատ բաներ անելու համար: Դուք կարող եք ունենալ AI, որը ստեղծված է շահավետ նպատակներով, որը հաճախ կոչվում է AI For Good. Դուք կարող եք նաև ունենալ AI, որը դիտավորյալ ստեղծված է վատ նպատակների համար, որը հայտնի է որպես AI For Bad. Ավելին, դուք կարող եք ունենալ AI For Good որը կոռումպացված է կամ վերածվում է դառնալու AI For Bad.

Ի դեպ, սրանցից ոչ մեկը կապ չունի AI-ի զգայուն դառնալու հետ, ինչը ես նշում եմ, քանի որ ոմանք շարունակում են բացականչել, որ այսօրվա AI-ն կա՛մ զգայուն է, կա՛մ զգայուն լինելու շեմին է: Այդպես չէ։ Ես առանձնացնում եմ այդ առասպելները իմ վերլուծության մեջ հղումն այստեղ.

Այդ դեպքում եկեք համոզվենք, որ մենք նույն էջում ենք այսօրվա AI-ի բնույթի վերաբերյալ:

Այսօր չկա որևէ AI, որը զգայուն է: Մենք սա չունենք: Մենք չգիտենք, թե արդյոք հնարավո՞ր է խելացի AI-ն: Ոչ ոք չի կարող տեղին կանխագուշակել, թե արդյոք մենք կհասնենք խելամիտ AI-ին, և ոչ էլ արդյոք զգայական AI-ն ինչ-որ կերպ հրաշքով ինքնաբերաբար կառաջանա հաշվողական ճանաչողական գերնոր աստղի տեսքով (սովորաբար կոչվում է եզակիություն, տե՛ս իմ լուսաբանումը այստեղ. հղումն այստեղ).

AI-ի տեսակը, որի վրա ես կենտրոնանում եմ, բաղկացած է ոչ զգայուն AI-ից, որն այսօր ունենք: Եթե ​​մենք ցանկանայինք խելամիտ ենթադրություններ անել խելացի արհեստական ​​ինտելեկտի մասին, ապա այս քննարկումը կարող էր գնալ արմատապես այլ ուղղությամբ: Զգացող AI-ն ենթադրաբար մարդկային որակի կլիներ: Դուք պետք է հաշվի առնեք, որ զգայուն AI-ն մարդու ճանաչողական համարժեքն է: Ավելին, քանի որ ոմանք ենթադրում են, որ մենք կարող ենք ունենալ գերխելացի AI, կարելի է պատկերացնել, որ նման AI-ն կարող է ավելի խելացի լինել, քան մարդիկ (որպես հնարավոր է գերխելացի AI-ի իմ ուսումնասիրությունը տե՛ս. լուսաբանումն այստեղ).

Ես խստորեն կառաջարկեի, որ մենք ամեն ինչ ցած պահենք և հաշվի առնենք այսօրվա հաշվողական ոչ զգայուն AI-ն:

Գիտակցեք, որ այսօրվա AI-ն ի վիճակի չէ «մտածել» մարդկային մտածողությանը հավասար: Երբ դուք շփվում եք Alexa-ի կամ Siri-ի հետ, խոսակցական կարողությունները կարող են նման լինել մարդկային կարողություններին, բայց իրականությունն այն է, որ այն հաշվողական է և չունի մարդկային ճանաչողություն: AI-ի վերջին դարաշրջանը լայնորեն օգտագործել է մեքենայական ուսուցում (ML) և Deep Learning (DL), որոնք օգտագործում են հաշվողական օրինաչափությունների համընկնումը: Սա հանգեցրել է արհեստական ​​ինտելեկտի համակարգերի, որոնք ունեն մարդու նման հակումների տեսք: Միևնույն ժամանակ, այսօր չկա որևէ արհեստական ​​բանականություն, որն ունի ողջամտության նմանություն և ոչ էլ ունի ուժեղ մարդկային մտածողության ճանաչողական հրաշք:

Շատ զգույշ եղեք այսօրվա արհեստական ​​ինտելեկտը մարդաբանական դարձնելուց:

ML/DL-ը հաշվողական օրինաչափությունների համապատասխանության ձև է: Սովորական մոտեցումն այն է, որ դուք հավաքում եք տվյալներ որոշումներ կայացնելու առաջադրանքի վերաբերյալ: Դուք սնուցում եք տվյալները ML/DL համակարգչային մոդելների մեջ: Այդ մոդելները ձգտում են գտնել մաթեմատիկական օրինաչափություններ: Այդպիսի օրինաչափություններ գտնելուց հետո, եթե գտնվեն, ապա արհեստական ​​ինտելեկտի համակարգը կօգտագործի այդ օրինաչափությունները նոր տվյալների հանդիպելիս: Նոր տվյալների ներկայացումից հետո «հին» կամ պատմական տվյալների վրա հիմնված օրինաչափությունները կիրառվում են ընթացիկ որոշում կայացնելու համար:

Կարծում եմ, դուք կարող եք կռահել, թե ուր է սա գնում: Եթե ​​մարդիկ, ովքեր որոշումներ են կայացնում, իրենց մեջ ներդնում են անբարենպաստ կողմնակալություն, ապա հավանականությունն այն է, որ տվյալներն արտացոլում են դա նուրբ, բայց նշանակալի ձևերով: Մեքենայի ուսուցումը կամ խորը ուսուցման հաշվողական օրինաչափությունների համընկնումը պարզապես կփորձի համապատասխանաբար մաթեմատիկորեն նմանակել տվյալները: Առողջ դատողության կամ AI-ի կողմից ստեղծված մոդելավորման այլ զգալի ասպեկտներ ինքնին չկա:

Ավելին, AI մշակողները նույնպես կարող են չհասկանալ, թե ինչ է կատարվում: ML/DL-ի գաղտնի մաթեմատիկան կարող է դժվարացնել այժմ թաքնված կողմնակալությունների բացահայտումը: Դուք իրավամբ հույս կունենաք և ակնկալում եք, որ AI մշակողները կփորձարկեն պոտենցիալ թաղված կողմնակալության համար, թեև դա ավելի բարդ է, քան կարող է թվալ: Կա մեծ հավանականություն, որ նույնիսկ համեմատաբար լայնածավալ փորձարկումների դեպքում, ML/DL-ի օրինաչափություններին համապատասխանող մոդելներում դեռևս առկա կլինեն կողմնակալություններ:

Դուք կարող եք ինչ-որ չափով օգտագործել աղբի մեջ աղբի դուրս գալու հայտնի կամ տխրահռչակ ասացվածքը: Բանն այն է, որ սա ավելի շատ նման է կողմնակալություններին, որոնք նենգորեն ներարկվում են որպես AI-ի մեջ ընկղմված կողմնակալություններ: AI-ի որոշումների կայացման ալգորիթմը (ADM) աքսիոմատիկորեն ծանրաբեռնված է անհավասարություններով:

Ոչ լավ.

Այս ամենը ունի զգալի AI-ի էթիկայի հետևանքներ և առաջարկում է հարմար պատուհան դեպի քաղված դասեր (նույնիսկ մինչ բոլոր դասերը տեղի կունենան), երբ խոսքը վերաբերում է AI-ի օրենսդրական հաստատման փորձին:

Բացի արհեստական ​​ինտելեկտի էթիկայի կանոնների կիրառումից, ընդհանուր առմամբ, կա համապատասխան հարց, թե արդյոք մենք պետք է ունենանք AI-ի տարբեր կիրառություններ կարգավորող օրենքներ: Նոր օրենքներ են մշակվում դաշնային, նահանգային և տեղական մակարդակներում, որոնք վերաբերում են արհեստական ​​ինտելեկտի մշակման տիրույթին և բնույթին: Նման օրենքներ մշակելու և ընդունելու ջանքերը աստիճանաբար են ընթանում: AI-ի էթիկան ծառայում է որպես նվազագույնը հաշվի առնելով, և գրեթե անկասկած որոշ չափով ուղղակիորեն կներառվի այդ նոր օրենքներում:

Տեղյակ եղեք, որ ոմանք համառորեն պնդում են, որ մեզ պետք չեն նոր օրենքներ, որոնք ընդգրկում են արհեստական ​​ինտելեկտը, և որ մեր գործող օրենքները բավարար են: Նրանք նախազգուշացնում են, որ եթե մենք հաստատենք AI-ի այս օրենքներից մի քանիսը, մենք կսպանենք ոսկե սագին՝ ճնշելով արհեստական ​​ինտելեկտի առաջընթացը, որը հսկայական հասարակական առավելություններ է տալիս:

Նախորդ սյունակներում ես անդրադարձել եմ արհեստական ​​ինտելեկտը կարգավորող օրենքներ ստեղծելու և ընդունելու ազգային և միջազգային տարբեր ջանքերին, տես. հղումն այստեղ, օրինակ. Ես նաև անդրադարձել եմ արհեստական ​​ինտելեկտի էթիկայի տարբեր սկզբունքներին և ուղեցույցներին, որոնք տարբեր ազգեր հայտնաբերել և ընդունել են, ներառյալ, օրինակ, Միավորված ազգերի կազմակերպության ջանքերը, ինչպիսին է ՅՈՒՆԵՍԿՕ-ի Արհեստական ​​ինտելեկտի էթիկայի փաթեթը, որը ընդունել է մոտ 200 երկիր, տես. հղումն այստեղ.

Ահա AI համակարգերի վերաբերյալ Էթիկական AI չափանիշների կամ բնութագրերի օգտակար հիմնական ցուցակը, որը ես նախկինում մանրամասն ուսումնասիրել եմ.

  • Թափանցիկություն
  • Արդարություն և արդարություն
  • Ոչ չարամտություն
  • պատասխանատվություն
  • Գաղտնիության
  • Բարեգործություն
  • Ազատություն և ինքնավարություն
  • Վստահեք
  • Կայունություն
  • Արժանապատվություն
  • Համերաշխություն

Արհեստական ​​ինտելեկտի էթիկայի այդ սկզբունքները լրջորեն պետք է օգտագործվեն արհեստական ​​ինտելեկտի մշակողների կողմից, ինչպես նաև նրանք, ովքեր ղեկավարում են AI-ի զարգացման ջանքերը, և նույնիսկ նրանք, որոնք, ի վերջո, կիրառում և պահպանում են AI համակարգերը:

Բոլոր շահագրգիռ կողմերը AI-ի զարգացման և օգտագործման ողջ կյանքի ցիկլի ընթացքում համարվում են Էթիկական AI-ի հաստատված նորմերին պահպանելու շրջանակում: Սա կարևոր կարևոր կետ է, քանի որ սովորական ենթադրությունն այն է, որ «միայն կոդավորողները» կամ նրանք, ովքեր ծրագրավորում են AI-ն, ենթակա են հավատարիմ մնալու AI-ի էթիկայի հասկացություններին: Ինչպես նախկինում ընդգծվել է այստեղ, AI-ի մշակման և մշակման համար անհրաժեշտ է գյուղ, և որի համար ամբողջ գյուղը պետք է տիրապետի և ենթարկվի AI-ի էթիկայի կանոններին:

Այժմ, երբ ես օգտակար հիմք եմ դրել «Բաց նամակին» մտնելու համար, մենք պատրաստ ենք սուզվելու:

Բաց նամակի պաշտոնական վերնագիրն այսպիսին է.

  • "Բաց նամակ ռոբոտաշինության արդյունաբերությանը և մեր համայնքներին, ընդհանուր նշանակության ռոբոտները չպետք է զինվեն» (ինչպես տեղադրված է առցանց):

Մինչ այժմ, այնքան լավ:

Վերնագիրը գրեթե պաղպաղակի և խնձորի կարկանդակ է թվում: Ինչպե՞ս կարող է որևէ մեկը վիճարկել սա որպես արհեստական ​​ինտելեկտի ռոբոտի զենքից խուսափելու նախկին կոչ:

Կարդացեք՝ տեսնելու համար:

Նախ, որպես քննարկման կեր, ահա Բաց նամակի պաշտոնական բացման պարբերությունը.

  • «Մենք աշխարհի առաջատար ընկերություններից մի քանիսն ենք, որոնք նվիրված են առաջադեմ շարժական ռոբոտաշինության նոր սերունդներին հասարակությանը ներկայացնելուն: Այս նոր սերունդների ռոբոտներն ավելի մատչելի են, ավելի հեշտ է գործել, ավելի ինքնավար, մատչելի և հարմարվող, քան նախորդ սերունդները, և ունակ են նավարկելու այնպիսի վայրեր, որոնք նախկինում անհասանելի էին ավտոմատացված կամ հեռակառավարվող տեխնոլոգիաների համար: Մենք հավատում ենք, որ առաջադեմ շարժական ռոբոտները մեծ օգուտ կտան հասարակությանը՝ որպես արդյունաբերության մեջ աշխատող և մեր տներում ուղեկիցներ» (ինչպես տեղադրված է առցանց):

Այս տեսակի ռոբոտների հայտնվելու արևոտ կողմն այն է, որ մենք կարող ենք ակնկալել շատ մեծ օգուտներ: Դրանում կասկած չկա: Հնարավոր է, որ ձեր տանը ռոբոտ ունենաք, որը կարող է կատարել Ջեթսոնի նման գործողություններ, ինչպիսիք են՝ մաքրել ձեր տունը, լվանալ ձեր սպասքը և տնային այլ գործեր: Մենք կունենանք առաջադեմ ռոբոտներ՝ գործարաններում և արտադրական օբյեկտներում օգտագործելու համար: Ռոբոտները կարող են պոտենցիալ սողալ կամ մանևրել նեղ տարածքներում, օրինակ, երբ շենքը փլուզվում է, և մարդկային կյանքերը վտանգված են փրկվելու համար: Եվ այսպես շարունակ։

Որպես մի կողմ, դուք կարող եք հետաքրքրություն առաջացնել Tesla AI օրվա վերաբերյալ իմ վերջին ակնառու լուսաբանումը, որի ժամանակ Իլոն Մասկի կողմից ներկայացվել են որոշ քայլող ռոբոտներ՝ որպես Տեսլայի և հասարակության ապագա, տես. հղումն այստեղ.

Վերադառնալ քննարկվող հարցին: Երբ լրջորեն քննարկում ենք պարող ռոբոտների կամ քայլող ռոբոտների մասին, մենք պետք է ուշադրությամբ հաշվի առնենք արհեստական ​​ինտելեկտի այս օգտագործման փոխզիջումները կամ ընդհանուր ROI-ն (ներդրումների վերադարձը): Մենք չպետք է թույլ տանք, որ չափից դուրս հիանանք օգուտներով, երբ հաշվի առնելու համար կան նաև ծախսեր:

Փայլուն նոր խաղալիքը կարող է բավականին սուր եզրեր ունենալ:

Այս ամենը խթանում է մի կարևոր, բայց փոքր-ինչ լուռ կետ, որ AI-ի սպառազինության հարցի առաջացման պատճառի մի մասը պայմանավորված է AI-ի առաջխաղացումով դեպի ինքնավար գործունեություն: Մենք սովորաբար ակնկալում էինք, որ զենքը հիմնականում օգտագործվում է մարդու կողմից: Մարդը որոշում է կայացնում՝ կրակել, թե ներգրավել զենքը: Մենք ենթադրաբար կարող ենք այդ մարդուն պատասխանատվության ենթարկել իրենց արարքների համար:

Արհեստական ​​ինտելեկտը, որը ստեղծվել է ինքնուրույն աշխատելու համար, կամ որին կարելի է խաբել, կարծես թե մարդուն կհեռացնի օղակից: Այնուհետև AI-ն ալգորիթմորեն հաշվողական որոշումներ է կայացնում, որոնք կարող են ի վերջո սպանել կամ վնասել մարդկանց: Բացի AI-ի նկատմամբ վերահսկողության բացակայության ակնհայտ մտահոգություններից, դուք նաև անհանգստություն ունեք, որ մենք կարող ենք դժվար ժամանակ ունենալ AI-ի գործողությունների համար պատասխանատվություն կրելու համար: Մենք չունենք մարդ, որը մեր ակնհայտ դրդողն է։

Ես գիտակցում եմ, որ ոմանք կարծում են, որ մենք պետք է ուղղակի և ուղղակիորեն պատասխանատվություն կրենք AI-ին իր գործողությունների համար, կարծես AI-ն ձեռք է բերել իրավաբանական անձ կամ այլ կերպ ստացել է իրավաբանական անձի կարգավիճակ (տես իմ լուսաբանումը AI-ի իրավաբանական անձի կարգավիճակ ձեռք բերելու վերաբերյալ բանավեճերի վերաբերյալ. հղումն այստեղ) Դա առայժմ չի աշխատի: Մենք ստիպված կլինենք հետևել արհեստական ​​ինտելեկտին այն մարդկանց, ովքեր կամ նախագծել են այն, կամ դաշտ են դուրս բերել: Նրանք, անկասկած, կփորձեն իրավաբանորեն խուսափել պատասխանատվությունից՝ փորձելով պնդել, որ արհեստական ​​ինտելեկտը գերազանցել է իրենց պատկերացրածը: Սա աճող վեճ է, որի հետ մենք պետք է զբաղվենք (տես AI Օրենքի իմ գրությունները՝ ներգրավված վիճելի հարցերի վերաբերյալ պատկերացումների համար):

Միավորված ազգերի կազմակերպությունը (ՄԱԿ) Ժնևի Որոշ սովորական զենքերի մասին կոնվենցիայի (CCW) միջոցով հաստատել է մահաբեր ինքնավար զենքերի վերաբերյալ տասնմեկ ոչ պարտադիր առաջնորդող սկզբունքներ՝ համաձայն առցանց հրապարակված պաշտոնական զեկույցի (ներառյալ միջազգային մարդասիրական իրավունքի կամ IHL դրույթների հղումները): , այդ թվում՝

ա) Միջազգային մարդասիրական իրավունքը շարունակում է ամբողջությամբ կիրառել բոլոր սպառազինության համակարգերի նկատմամբ, ներառյալ մահաբեր ինքնավար սպառազինության համակարգերի հնարավոր զարգացումը և օգտագործումը.

(բ) Զենքի համակարգերի օգտագործման վերաբերյալ որոշումների համար մարդկային պատասխանատվությունը պետք է պահպանվի, քանի որ պատասխանատվությունը չի կարող փոխանցվել մեքենաներին: Սա պետք է դիտարկել սպառազինության համակարգի ողջ կյանքի ցիկլի ընթացքում.

գ) Մարդ-մեքենա փոխազդեցությունը, որը կարող է տարբեր ձևեր ունենալ և իրականացվել զենքի կյանքի ցիկլի տարբեր փուլերում, պետք է ապահովի, որ մահաբեր ինքնավար զենքի համակարգերի ոլորտում զարգացող տեխնոլոգիաների վրա հիմնված սպառազինության համակարգերի հնարավոր օգտագործումը համապատասխանությունը կիրառելի միջազգային իրավունքին, մասնավորապես ՄԻԴ-ին: Մարդ-մեքենա փոխազդեցության որակն ու չափը որոշելիս պետք է հաշվի առնել մի շարք գործոններ, ներառյալ գործառնական համատեքստը և ընդհանուր առմամբ սպառազինության համակարգի բնութագրերն ու հնարավորությունները.

(դ) CCW-ի շրջանակներում սպառազինության ցանկացած նոր համակարգ մշակելու, տեղակայելու և օգտագործելու պատասխանատվությունը պետք է ապահովվի կիրառելի միջազգային իրավունքի համաձայն, այդ թվում՝ մարդկային հրամանատարության և վերահսկման պատասխանատու շղթայի շրջանակներում նման համակարգերի գործարկման միջոցով.

ե) Միջազգային իրավունքով նախատեսված պետությունների պարտավորություններին համապատասխան՝ նոր զենքի, միջոցի կամ պատերազմի մեթոդի ուսումնասիրման, մշակման, ձեռքբերման կամ ընդունման ժամանակ պետք է որոշվի, թե արդյոք դրա օգտագործումը որոշ կամ բոլոր հանգամանքներում կարող է լինել. արգելված է միջազգային իրավունքով;

զ) մահացու ինքնավար զենքի համակարգերի, ֆիզիկական անվտանգության, համապատասխան ոչ ֆիզիկական երաշխիքների (ներառյալ կիբերանվտանգությունը հաքերային հարձակումներից կամ տվյալների կեղծումից) ոլորտում զարգացող տեխնոլոգիաների վրա հիմնված նոր սպառազինությունների համակարգերի մշակման կամ ձեռքբերման ժամանակ, ահաբեկչական խմբավորումների կողմից ձեռքբերման վտանգը. և պետք է հաշվի առնել տարածման ռիսկը.

է) Ռիսկերի գնահատումը և մեղմացման միջոցառումները պետք է լինեն ցանկացած սպառազինության համակարգերում զարգացող տեխնոլոգիաների նախագծման, մշակման, փորձարկման և տեղակայման փուլի մի մասը.

(ը) Պետք է ուշադրություն դարձնել մահացու ինքնավար սպառազինությունների համակարգերի ոլորտում զարգացող տեխնոլոգիաների կիրառմանը` պահպանելով ՄԻՊ-ի և այլ կիրառելի միջազգային իրավական պարտավորությունները.

(i) պոտենցիալ քաղաքական միջոցներ մշակելիս մահաբեր ինքնավար սպառազինության համակարգերի ոլորտում զարգացող տեխնոլոգիաները չպետք է անտրոպոմորֆիզացվեն.

(ժ) Քննարկումները և ցանկացած պոտենցիալ քաղաքականության միջոցներ, որոնք ձեռնարկվել են ՄԿՀ-ի համատեքստում, չպետք է խոչընդոտեն խելացի ինքնավար տեխնոլոգիաների խաղաղ օգտագործման առաջընթացին կամ դրանց հասանելիությանը.

ժա) CCW-ն առաջարկում է համապատասխան շրջանակ մահաբեր ինքնավար սպառազինության համակարգերի ոլորտում զարգացող տեխնոլոգիաների հետ կապված խնդիրների լուծման համար՝ Կոնվենցիայի նպատակների և նպատակների համատեքստում, որը ձգտում է հավասարակշռություն հաստատել ռազմական անհրաժեշտության և մարդասիրական նկատառումների միջև:

Պատերազմի այս և այլ տարբեր օրենքները և զինված հակամարտությունների մասին օրենքները կամ IHL-ը (Միջազգային մարդասիրական իրավունքներ) ծառայում են որպես կենսական և միշտ խոստումնալից ուղեցույց՝ դիտարկելու համար, թե ինչ կարող ենք փորձել անել ինքնավար համակարգերի հայտնվելու դեպքում, որոնք զինված են, անկախ նրանից՝ առանցքային: նախագծում կամ հետևողական մեթոդներով:

Ոմանք ասում են, որ մենք պետք է ուղղակիորեն արգելենք AI-ի ինքնավար համակարգերը, որոնք կարող են զինվել: Ճիշտ է, աշխարհը պետք է ոտքը ցած դնի և խստորեն պահանջի, որ արհեստական ​​ինտելեկտի ինքնավար համակարգերը երբեք չպետք է զինվեն: Ամբողջական արգելք է նախատեսվում. Պատմության ավարտը. Վերջակետ, կետ.

Դե, մենք կարող ենք անկեղծորեն մաղթել, որ մահաբեր զենքով ինքնավար համակարգերի արգելքը խստորեն և հնազանդորեն պահպանվի: Խնդիրն այն է, որ ամենաանկեղծ արգելքներից որևէ մեկում խորամանկորեն կարելի է գտնել շատ տեղաշարժեր: Ինչպես ասում են՝ կանոնները խախտելու համար են: Կարող եք գրազ գալ, որ այնտեղ, որտեղ ամեն ինչ անկայուն է, ռիֆֆրաֆը կբացի բացերը և կփորձի աչքով անել կանոնները:

Ահա մի քանի հնարավոր բացթողումներ, որոնք արժանի են ուշադրության.

  • Ոչ մահացու պահանջներ. Ստեղծեք ոչ մահաբեր ինքնավար սպառազինության համակարգեր (կարծես թե լավ է, քանի որ այն գտնվում է արգելքի սահմանից դուրս), որը կարող եք այնուհետև մի փոքր փոխել մահացու (միայն վերջին պահին դուրս կգաք արգելքից):
  • Միայն ինքնավար համակարգի պահանջները. Պահպանեք արգելքը՝ չստեղծելով մահացու վրա կենտրոնացված ինքնավար համակարգեր, միևնույն ժամանակ, նույնքան առաջընթաց գրանցեք ամենօրյա ինքնավար համակարգերի ստեղծման հարցում, որոնք (դեռևս) զենք չեն ստացել, բայց դուք կարող եք մի փոքր արդիականացնել և զինվել:
  • Չինտեգրված որպես մեկ պահանջներ: Ստեղծեք ինքնավար համակարգեր, որոնք ամենևին էլ սպառազինված չեն, և երբ ժամանակը գա, խոզուկ զենքի ձևավորում այնպես, որ դուք կարող եք փորձել խստորեն պնդել, որ դրանք երկու առանձին տարրեր են և, հետևաբար, պնդել, որ դրանք չեն մտնում «ամենը մեկում» դասակարգման մեջ: ինքնավար զենքի համակարգ կամ նրա զարմիկ.
  • Պնդում է, որ ինքնավար չէ: Ստեղծեք այնպիսի զենքի համակարգ, որը կարծես թե ինքնավար հզորություններ չունի։ Տեղ թողեք այս, ենթադրաբար, ոչ ինքնավար համակարգում՝ AI-ի վրա հիմնված ինքնավարությունը բաց թողնելու համար: Անհրաժեշտության դեպքում միացրեք ինքնավարությունը, և դուք պատրաստ եք գլորվել (մինչ այդ, թվում է, դուք չէիք խախտում արգելքը):
  • այլ

Բազմաթիվ այլ արտահայտված դժվարություններ կան մահաբեր ինքնավար սպառազինությունների համակարգերի բացահայտ արգելման հետ կապված: Ես կանդրադառնամ դրանցից ևս մի քանիսին:

Որոշ փորձագետներ պնդում են, որ արգելքը հատկապես օգտակար չէ, և դրա փոխարեն պետք է լինեն կարգավորող դրույթներ: Գաղափարն այն է, որ այդ միջոցները թույլատրվելու են, բայց խստորեն վերահսկվելու են: Նախատեսվում է օրինական կիրառումների մի շարք՝ թիրախավորման օրինական եղանակների, կարողությունների օրինական տեսակների, օրինական համաչափության և այլնի հետ մեկտեղ:

Նրանց կարծիքով՝ ուղիղ արգելքը նման է գլուխդ ավազի մեջ դնելուն և ձևացնել, թե սենյակում գտնվող փիղը գոյություն չունի: Այս վեճը, սակայն, արյունը եռում է նրանց, ովքեր հակադարձում են այն փաստարկին, որ արգելք սահմանելով՝ դուք ի վիճակի եք կտրուկ նվազեցնել նման համակարգերի հետամուտ լինելու այլապես գայթակղությունը: Իհարկե, ոմանք կպարզեն արգելքը, բայց հուսով ենք, որ շատերը չեն անի: Այնուհետև դուք կարող եք կենտրոնացնել ձեր ուշադրությունը շողոքորթողների վրա և ստիպված չլինեք ձեր ուշադրությունը բաժանել բոլորի վրա:

Այս բանավեճերը պտտվում են:

Մեկ այլ հաճախ նկատվող մտահոգություն այն է, որ եթե նույնիսկ լավը պահպանի արգելքը, վատը չի կատարի: Սա լավը դնում է ոջլոտ կեցվածքի մեջ: Վատերը կունենան այս տեսակի զինված ինքնավար համակարգեր, իսկ լավը՝ ոչ: Երբ բացահայտվեն այն, որ վատերն ունեն դրանք, լավը շատ ուշ կլինի հասնելու համար: Մի խոսքով, միակ խելացի բանը, որ պետք է անել, կրակը կրակով պայքարելուն պատրաստվելն է:

Կա նաև զսպման դասական վեճ: Եթե ​​լավը նախընտրում է զենքով ինքնավար համակարգեր ստեղծել, դա կարող է օգտագործվել՝ վատերին հետ պահելու վեճի մեջ մտնելուց: Կա՛մ լավը ավելի լավ կզինվի և այդպիսով կհրապուրի վատերին, կա՛մ լավը պատրաստ կլինի, երբ վատերը, հավանաբար, բացահայտեն, որ նրանք ամբողջ ընթացքում գաղտնի կերպով նախագծել են այդ համակարգերը:

Այս հաշվիչներին հակադրվում է այն, որ զենքով ինքնավար համակարգեր ստեղծելով՝ դուք սպառազինությունների մրցավազք եք մղում: Մյուս կողմը կձգտի նույնն ունենալ։ Նույնիսկ եթե նրանք տեխնոլոգիապես ի վիճակի չեն նորովի ստեղծել նման համակարգեր, նրանք այժմ կկարողանան գողանալ «լավերի» ծրագրերը, հակադարձել բարձր տեխնոլոգիաների ճարտարությունը կամ ընդօրինակել այն, ինչ թվում է, թե փորձված և իրական է։ գործն ավարտելու միջոց:

Ահա, ոմանք հակադարձում են, այս ամենը կարող է հանգեցնել հակամարտությունների նվազմանը, կարծես թե փոխադարձ: Եթե ​​A կողմն իմանա, որ B կողմն ունի այդ մահաբեր ինքնավար համակարգերի զենքերը, իսկ B կողմն իմանա, որ A կողմն ունի դրանք, նրանք կարող են ամուր նստել և չհարվածել: Սա ունի փոխադարձ երաշխավորված ոչնչացման (MAD) թրթիռների այդ հստակ աուրան:

Եվ այսպես շարունակ:

Ուշադիր նայելով երկրորդ պարբերությանը

Մենք արդեն շատ բան ենք անդրադարձել այստեղ և մինչ այժմ դիտարկել ենք Բաց նամակի առաջին կամ սկզբնական պարբերությունը (ընդհանուր առմամբ չորս պարբերություն կա):

Ժամանակն է նայելու երկրորդ պարբերությանը, ահա դուք գնում եք.

  • «Ինչպես ցանկացած նոր տեխնոլոգիա, որն առաջարկում է նոր հնարավորություններ, առաջադեմ շարժական ռոբոտների ի հայտ գալն առաջարկում է չարաշահման հնարավորություն: Անվստահելի մարդիկ կարող են դրանք օգտագործել քաղաքացիական իրավունքների վրա ներխուժելու կամ ուրիշներին սպառնալու, վնասելու կամ վախեցնելու համար: Առանձնահատուկ մտահոգության ոլորտը սպառազինությունն է: Մենք կարծում ենք, որ ռոբոտներին զենքեր ավելացնելը, որոնք գործում են հեռակա կամ ինքնուրույն, լայնորեն հասանելի են հանրությանը և ունակ են նավարկելու նախկինում անհասանելի վայրեր, որտեղ մարդիկ ապրում և աշխատում են, առաջացնում է վնասի նոր ռիսկեր և լուրջ էթիկական խնդիրներ: Այս նոր ընդունակ ռոբոտների սպառազինված կիրառությունները նույնպես կվնասեն հասարակության վստահությանը տեխնոլոգիայի նկատմամբ այնպես, որ կվնասեն այն հսկայական օգուտներին, որոնք նրանք կբերեն հասարակությանը: Այս պատճառներով մենք չենք աջակցում մեր առաջադեմ շարժունակության ընդհանուր նշանակության ռոբոտների սպառազինությանը: Մեզանից նրանց համար, ովքեր խոսել են այս հարցի մասին անցյալում, և նրանց համար, ովքեր առաջին անգամ են զբաղվում, մենք այժմ զգում ենք նոր հրատապություն՝ հաշվի առնելով վերջին ամիսներին հասարակության աճող մտահոգությունը, որը առաջացել է փոքր թվով մարդկանց կողմից, ովքեր տեսանելիորեն հրապարակել են իրենց ժամանակավոր աշխատանքը: կոմերցիոն հասանելի ռոբոտներին զինելու ջանքերը» (ինչպես տեղադրված է առցանց):

Այս երկրորդ պարբերությունը կարդալուց հետո, հուսով եմ, դուք կարող եք տեսնել, թե ինչպես է առաջանում իմ ավելի վաղ զրույցը AI-ի զենքի օգտագործման վերաբերյալ:

Եկեք քննենք մի քանի լրացուցիչ կետեր.

Որոշակի վիճաբանություն ձևակերպման որոշակի ասպեկտի հետ կապված, որը ոմանց մոտ տհաճություն է առաջացրել, այն է, որ պատմությունը կարծես շեշտում է, որ «անվստահելի մարդիկ» կարող են չարաշահել այս AI ռոբոտները: Այո, իսկապես, դա կարող է լինել վատ մարդիկ կամ չարագործները, որոնք կհանգեցնեն ահավոր արարքների, որոնք «կչարաշահեն» AI ռոբոտներին:

Միևնույն ժամանակ, ինչպես նշվեց այս քննարկման սկզբում, մենք պետք է նաև հստակեցնենք, որ AI-ն ինքնին կարող է շեղվել, հնարավոր է ներկառուցված սխալների կամ սխալների և նման այլ բարդությունների պատճառով: Արտահայտված մտահոգությունն այն է, որ միայն ընդգծելով շանսերը անվստահելի մարդիկ այն է, որ թվում է, թե անտեսում է այլ անբարենպաստ հնարավորությունները: Թեև արհեստական ​​ինտելեկտի ընկերությունների և վաճառողների մեծամասնությունը հակված չէ խոստովանել դա, կա մի շարք AI համակարգերի խնդիրներ, որոնք կարող են խաթարել ինքնավար համակարգերի անվտանգությունն ու հուսալիությունը: Արհեստական ​​ինտելեկտի անվտանգության մասին իմ լուսաբանման և խիստ և ապացուցելի երաշխիքների անհրաժեշտության համար տե՛ս հղումն այստեղ, Օրինակ.

Մեկ այլ ուշագրավ կետ, որը ի հայտ է եկել «Բաց նամակը» ուսումնասիրածների մեջ, ներառում է այն պնդումը, որ կարող է ի վերջո խախտել հանրային վստահությունը՝ կապված AI ռոբոտների հետ:

Սա մի կողմից հիմնավոր պնդում է։ Եթե ​​արհեստական ​​ինտելեկտի ռոբոտներն օգտագործվում են չար առաջարկություններ անելու համար, կարող եք գրազ գալ, որ հասարակությունը բավականին շոգեխաշված կլինի: Երբ հանրությունը շոգեխաշվի, դուք կարող եք գրազ գալ, որ օրենսդիրները կանցնեն ասպարեզ և կձգտեն օրենքներ ընդունել, որոնք կսահմանափակեն AI ռոբոտներին և AI ռոբոտներ արտադրողներին: Սա իր հերթին կարող է հաշմանդամ դարձնել AI ռոբոտաշինության արդյունաբերությունը, եթե օրենքները համապարփակ լինեն և դադարեցնեն AI-ի ռոբոտաշինության առավելությունների հետ կապված ջանքերը: Ինչ-որ իմաստով երեխան կարող էր դուրս շպրտվել լոգանքի ջրի հետ (հին արտահայտություն, հավանաբար արժանի է թոշակի անցնելու):

Բացահայտված նաև ակնհայտ հարցն այն է, թե արդյոք արհեստական ​​ինտելեկտի ռոբոտների նկատմամբ հանրային վստահության նվազեցումը կանխելու մասին այս պնդումը ինչ-որ չափով ինքնասպասարկման հավատ է, թե՞ դա բոլորիս բարօրության համար է (կարո՞ղ է լինել երկուսն էլ):

Դուք որոշում եք:

Այժմ գալիս ենք Բաց նամակի հատկապես մսեղ հատվածին.

  • «Մենք խոստանում ենք, որ չենք զինելու մեր առաջադեմ շարժունակության ընդհանուր նշանակության ռոբոտներին կամ մեր մշակած ծրագրակազմին, որը թույլ է տալիս կատարելագործված ռոբոտաշինությունը, և մենք չենք աջակցի մյուսներին դա անել: Հնարավորության դեպքում մենք ուշադիր կուսումնասիրենք մեր հաճախորդների կողմից նախատեսված հավելվածները՝ պոտենցիալ սպառազինությունից խուսափելու համար: Մենք նաև խոստանում ենք ուսումնասիրել տեխնոլոգիական առանձնահատկությունների զարգացումը, որոնք կարող են մեղմել կամ նվազեցնել այդ ռիսկերը: Հստակ լինելու համար, մենք չենք քննարկում գոյություն ունեցող տեխնոլոգիաները, որոնք ազգերը և նրանց պետական ​​մարմինները օգտագործում են իրենց պաշտպանելու և իրենց օրենքները պահպանելու համար» (ինչպես տեղադրված է առցանց):

Մենք կարող ենք բացել սա:

Նստեք և համապատասխանաբար պատրաստվեք:

Պատրա՞ստ եք ինչ-որ կրակոտ բևեռացման:

Բարենպաստ կողմից, ոմանք բարձրաձայն ազդարարում են, որ արհեստական ​​ինտելեկտի այս ռոբոտ արտադրողները նման խոստում կանեն: Թվում է, որ այս ռոբոտ արտադրողները, բարեբախտաբար, կձգտեն զենք չօգտագործել իրենց «առաջադեմ շարժունակության ընդհանուր նշանակության» ռոբոտներին: Բացի այդ, Բաց Նամակում ասվում է, որ իրենք չեն աջակցի մյուսներին, ովքեր դա անում են։

Քննադատները զարմանում են, թե արդյոք տեղի է ունենում ինչ-որ խելացի բառակապություն:

Օրինակ, որտեղ է սկսվում և ավարտվում «առաջադեմ շարժունակությունը»: Եթե ​​ռոբոտ արտադրողը մշակում է ա պարզ- Շարժունակ AI ռոբոտը, այլ ոչ թե առաջադեմը (որը տեխնիկական ժարգոնի չսահմանված կտոր է), արդյոք դա դուրս է մնում այն ​​շրջանակից Նշում զինվել? Այսպիսով, ըստ երևույթին, նորմալ է զինել պարզ շարժունակ AI ռոբոտներին, քանի դեռ դրանք այսպես կոչված չեն: առաջադեմ.

Նույնը վերաբերում է ընդհանուր նշանակության ռոբոտների ձևակերպմանը: Եթե ​​արհեստական ​​ինտելեկտի ռոբոտը ստեղծվել է հատուկ զենքի պատրաստման համար և, հետևաբար, այդպես չէ, մենք կասենք՝ ա հիմնական նպատակ, գլխավոր նպատակ ռոբոտ, արդյո՞ք դա դառնում է կենսունակ բացառում շրջանակից:

Դուք կարող եք վիճաբանել այս խոսակցություններով և ջերմեռանդորեն պնդել, որ սա ընդամենը բաց նամակ է և ոչ թե հիսուն էջանոց իրավական փաստաթուղթ, որը հստակեցնում է բոլոր անկյուններն ու անկյունները:

Սա մեզ բերում է թվացյալ ավելի մակրո մակարդակի տագնապին, որն արտահայտվում է ոմանց կողմից: Ըստ էության, ի՞նչ է նշանակում «գրավը»։

Ոմանք հարցնում են՝ որտե՞ղ է տավարի միսը։

Ընկերությունը, որը նման խոստում է տալիս, կարծես թե դա անում է առանց որևէ իրական խաղադրույքի: Եթե ​​որևէ ընկերության բարձրաստիճան ղեկավարը, որը ստորագրում է այս գրավը, որոշի այլևս չհարգել խոստումը, ի՞նչ կլինի այդ ընկերության հետ: Արդյո՞ք գործադիրները համառոտ պահածոներ կստանան։ Արդյո՞ք ընկերությունը կփակվի և մեծապես ներողություն կխնդրի խոստումը խախտելու համար: Եվ այսպես շարունակ։

Ինչքանով կարելի է եզրակացնել, որևէ հատուկ տույժ կամ տույժ չկա գրավի որևէ խախտման համար:

Դուք կարող եք վիճել, որ կա հեղինակության վնասման հավանականություն: Գրավ տվող ընկերությունը կարող է հայտնվել շուկայում, քանի որ խոստացել է, որ նա այլևս չի պահպանում: Իհարկե, սա նաև ենթադրում է, որ մարդիկ կհիշեն, որ գրավը դրված է։ Այն նաև ենթադրում է, որ գրավի խախտումը ինչ-որ կերպ կբացահայտվի (հստակ անհավանական է թվում, որ ընկերությունն ամեն ինչ կասի, եթե դա անի): Գրավը խախտողին պետք է կանչել, և, այնուամենայնիվ, նման խնդիրը կարող է պարզապես աղմուկ դառնալ արհեստական ​​ինտելեկտի ռոբոտաշինություն արտադրողների մասին նորությունների շարունակվող ցունամիում:

Դիտարկենք մեկ այլ անկյուն, որը առաջացել է:

Գրավադրող ընկերությունը գնում է ավելի մեծ ընկերության կողմից: Ավելի մեծ ընկերությունը նախընտրում է սկսել զարգացած շարժունակությամբ ընդհանուր նշանակության ռոբոտները AI-ի սպառազինված տարբերակների վերածել:

Սա գրավի խախտում է՞։

Ավելի մեծ ընկերությունը կարող է պնդել, որ դա խախտում չէ, քանի որ նրանք (ավելի մեծ ընկերությունը) երբեք խոստում չեն տվել: Միևնույն ժամանակ, արհեստական ​​ինտելեկտի անվնաս ռոբոտները, որոնք ավելի փոքր ընկերությունն ստեղծել և ստեղծել է, դա անում են թվացյալ ամենաայլտրուիստական ​​մտադրություններով, գրեթե մեկ գիշերվա ընթացքում վերածվում են զենքի:

Մի տեսակ խարխլում է գրավականը, թեև կարող եք ասել, որ փոքր ընկերությունը չգիտեր, որ դա մի օր տեղի կունենա: Նրանք անկեղծ էին իրենց ցանկության մեջ։ Նրանց վերահսկողությունից դուրս էր, թե ինչ է որոշել անել ավելի մեծ գնող ընկերությունը:

Ոմանք նաև հարցնում են, թե այս հարցում իրավական պատասխանատվություն կա՞։

Գրավատու ընկերությունը մի քանի ամիս հետո որոշում է, որ չի պատրաստվում կատարել գրավը: Նրանք փոխվել են իրենց մտքում։ Կարո՞ղ է արդյոք ընկերությանը դատի տալ իր կողմից տրված գրավից հրաժարվելու համար: Ո՞վ է դատի տալու. Ի՞նչ հիմք կհանդիսանա հայցի համար։ Իրավական մի շարք խնդիրներ են առաջանում. Ինչպես ասում են, դուք կարող եք գրեթե բոլորին դատի տալ, բայց արդյոք դուք կհաղթեք, դա բոլորովին այլ խնդիր է:

Մտածեք սա այլ կերպ: Գրավատու ընկերությունը հնարավորություն է ստանում իսկապես մեծ գործարք կատարել՝ իր առաջադեմ շարժունակության ընդհանուր նշանակության ռոբոտների մի ամբողջ փունջ վաճառելու համար մի հսկայական ընկերության, որը պատրաստ է քթի միջոցով վճարել ռոբոտներին ձեռք բերելու համար: Սա այն գործարքներից է, որը կյանքում մեկ անգամ արվում է միլիարդ դոլար արժողությամբ:

Ի՞նչ պետք է անի AI ռոբոտաշինության ընկերությունը:

Եթե ​​արհեստական ​​ինտելեկտի ռոբոտաշինության գրավադրող ընկերությունը հրապարակային առևտուր անի, նրանք գրեթե անկասկած նպատակ կունենան իրականացնել վաճառքը (նույնը կարելի է ասել մասնավոր ընկերության մասին, թեև ոչ այնքան էլ այդպես): Պատկերացրեք, որ գրավադրող ընկերությունն անհանգստացած է, որ գնորդը կարող է փորձել զինել ռոբոտներին, թեև, ենթադրենք, սեղանի վրա նման քննարկում չկա: Պարզապես խոսվում է, որ գնորդը կարող է դա անել։

Համապատասխանաբար, գրավադրող ընկերությունը լիցենզավորման մեջ է դնում, որ ռոբոտները չպետք է զինվեն: Գնորդը հրաժարվում է այս լեզվից և հեռանում գնումից:

Որքա՞ն շահույթ է ստացել AI-ի ռոբոտաշինության գրավական ընկերությունը:

Կա՞ մի կետ, երբ ձեռքի շահույթը գերակշռում է լիցենզավորման սահմանափակման պահանջի ընդգրկմանը (կամ, գուցե օրինական ձևակերպելով սահմանափակումը, որը թույլ է տալիս տեղաշարժել և, այնուամենայնիվ, գործարքը իրականացնել): Կարծում եմ, որ դուք կարող եք տեսնել, թե ինչ խնդիր կա: Տոննաներով նման սցենարներ հեշտությամբ են հորինվում: Հարցն այն է, թե արդյոք այս գրավականը ատամներ է ունենալու։ Եթե ​​այո, ապա ինչպիսի՞ ատամներ:

Կարճ ասած, ինչպես նշվեց այս քննարկման սկզբում, ոմանք ընդգծում են, որ այս տիպի գրավադրումը կատարվում է, իսկ մյուսները ավելի աղոտ պատկերացում են կազմում այն ​​մասին, թե արդյոք այդ գրավը ջուր կպահի:

Մենք առաջ ենք շարժվում:

Ստանալով խոստում

Բաց նամակի չորրորդ և վերջին պարբերությունն ասում է.

  • «Մենք հասկանում ենք, որ միայն մեր հանձնառությունը բավարար չէ այս ռիսկերը լիովին լուծելու համար, և, հետևաբար, մենք կոչ ենք անում քաղաքականություն մշակողներին աշխատել մեզ հետ՝ խթանելու այդ ռոբոտների անվտանգ օգտագործումը և արգելելու դրանց չարաշահումը: Մենք նաև կոչ ենք անում ռոբոտաշինության համայնքի յուրաքանչյուր կազմակերպությանը, ծրագրավորողին, հետազոտողին և օգտագործողին նմանատիպ խոստումներ տալ՝ չկառուցելու, թույլտվելու, աջակցելու կամ նման ռոբոտներին սպառազինություն կցելու հնարավորություն չտալու համար: Մենք համոզված ենք, որ մարդկության համար այս տեխնոլոգիաների օգուտները զգալիորեն գերազանցում են չարաշահման ռիսկը, և մենք ոգևորված ենք պայծառ ապագայով, որտեղ մարդիկ և ռոբոտները կողք կողքի կաշխատեն հաղթահարել աշխարհի որոշ մարտահրավերներ» (ինչպես տեղադրված է առցանց):

Բաց նամակի այս վերջին հատվածն ունի մի քանի լրացուցիչ տարրեր, որոնք զայրույթ են առաջացրել:

Ոմանք պնդում են, որ քաղաքականություն մշակողներին կոչ անելը կարող է լինել լավ խելամիտ կամ անխոհեմ: Դուք կարող եք ձեռք բերել քաղաքականություն մշակողներ, ովքեր տեղյակ չեն այս հարցերին, որոնք այնուհետև կանեն դասական շտապողականություն դատելու և արհեստագործական օրենքներ ու կանոնակարգեր, որոնք յուրացնում են AI ռոբոտների առաջընթացը: Համաձայն ավելի վաղ ասված կետի՝ հնարավոր է, որ նորարարությունը, որն առաջ է մղում արհեստական ​​ինտելեկտի ռոբոտաշինության առաջընթացը, կխաթարվի կամ կխաթարվի:

Ավելի լավ է վստահ եղեք, որ գիտեք, թե ինչ եք խնդրում, ասում են քննադատները։

Իհարկե, հակափաստարկն այն է, որ պատմվածքում հստակ ասվում է, որ քաղաքականություն մշակողները պետք է աշխատեն արհեստական ​​ինտելեկտի ռոբոտաշինության ընկերությունների հետ՝ պարզելու, թե ինչպես կարելի է ենթադրաբար խելամտորեն ընդունել նման օրենքներ և կանոնակարգեր: Հակափաստարկին հակադրվում է այն, որ քաղաքականություն մշակողները կարող են դիտվել որպես AI ռոբոտաշինության ստեղծողներին, եթե նրանք բավարարեն իրենց քմահաճույքները: Հակափաստարկի հակափաստարկն այն է, որ բնականաբար անհրաժեշտություն է աշխատել նրանց հետ, ովքեր գիտեն տեխնոլոգիայի մասին, այլապես արդյունքը պոտենցիալ կլինի խարխուլ: և այլն:

Հավանաբար, ոմանք սրտխառնոց են ունեցել այն գծի վրա, որը կոչ է անում բոլորին նման խոստումներ տալ, որ չ կցելով սպառազինություն առաջադեմ շարժունակության ընդհանուր նշանակության ռոբոտների համար: Այնտեղ հիմնաբառը բառն է կցելով. Եթե ​​ինչ-որ մեկը պատրաստում է արհեստական ​​ինտելեկտի ռոբոտ, որը ներառում է կամ անխափան կերպով ներկառուցում է զենք, դա կարծես թե շրջանցում է ձևակերպումը. կցելով ինչ - որ բան. Դուք կարող եք դա տեսնել հիմա, ինչ-որ մեկը կատաղի պնդում է, որ զենքը կցված չէ, այն ամբողջությամբ AI ռոբոտի մասն է: Անցե՛ք, բացականչում են նրանք, մենք այդ գրավականի շրջանակում չենք, և նրանք կարող էին նույնիսկ այլ կերպ ասել, որ եղել են։

Սա առաջ է բերում ևս մեկ բողոք՝ գրավի կպչուն չլինելու վերաբերյալ։

Կարո՞ղ է ընկերությունը կամ ընդհանրապես որևէ մեկը, ով նախընտրում է կատարել այս գրավականը, ցանկացած պահի հայտարարել իրենց չգրավված լինելու մասին, որ ցանկանում է դա անել և ինչ պատճառով է ցանկանում:

Ըստ երեւույթին այդպես է։

Գրավումներ կատարելու և դրանց ձգողականության մասին շատ բան կա:

Եզրափակում

Այո, դուք կարող եք ասել, որ այս ընկերությունները, որոնք փորձում են ճիշտ բան անել, թմբկահարվում են այն բանի համար, որ փորձում են ճիշտ բան անել:

Ի՞նչ է եկել մեր աշխարհից:

Ցանկացած ոք, ով նման խոստում է տալիս, պետք է արժանանա կասկածի, որը դուք կարող եք կրքոտ կերպով պահպանել: Նրանք դուրս են գալիս հանրային դաշտ՝ համարձակ և կենսական ներդրում ունենալու համար: Եթե ​​մենք սկսենք վիրավորել նրանց դրա համար, դա, անշուշտ, կվատթարացնի իրավիճակը: Ոչ ոք չի ցանկանա նման խոստում տալ։ Ընկերությունները և մյուսները չեն էլ փորձի: Նրանք կթաքնվեն և հասարակությանը չեն նախազգուշացնի, թե ինչի կարող են վտանգավոր վերածել այդ սիրելի պարող ռոբոտները:

Թերահավատները հայտարարում են, որ հասարակությանն իմաստուն դարձնելու ճանապարհը ենթադրում է այլ գործողություններ, օրինակ՝ հրաժարվել խելամիտ պարող արհեստական ​​ինտելեկտի ռոբոտներին ցուցադրելու երևակայական գործողությունից: Կամ գոնե դա դարձրեք ավելի հավասարակշռված գործողություն: Օրինակ, ոչ թե միայն նմանակելու սիրելի ընտանի կենդանիներին հավատարիմ շներին, ցույց տվեք, թե ինչպես են պարող ռոբոտները կարող են ավելի նման լինել վայրի սանձազերծված զայրացած գայլերին, որոնք կարող են մարդկանց կտոր-կտոր անել տարակուսանքով:

Դա ավելի շատ ուշադրության կարժանանա, քան խոստումները, խնդրում են նրանք:

Անկասկած, խոստումները կարող են բավականին հանելուկ լինել:

Ինչպես Մահաթմա Գանդին պերճախոսորեն ասաց. «Անկախ նրանից, թե որքան հստակ է խոստումը, մարդիկ կշրջվեն և կշրջեն տեքստը՝ իրենց նպատակին համապատասխան»:

Թերևս եզրափակելով այստեղ մի ոգևորիչ նոտայի վրա՝ Թոմաս Ջեֆերսոնն ասաց խոստումների մասին. «Մենք փոխադարձաբար խոստանում ենք միմյանց մեր կյանքը, մեր հարստությունը և մեր սուրբ պատիվը»:

Երբ խոսքը վերաբերում է արհեստական ​​ինտելեկտի ռոբոտներին, նրանց ինքնավարությանը, սպառազինությանն ու նմաններին, մենք բոլորս, ի վերջո, միասին ենք լինելու: Մեր փոխադարձ երդումը պետք է լինի առնվազն այն, որ մենք կպահենք այս հարցերը առաջնային պլանում, մենք կձգտենք գտնել ուղիներ՝ հաղթահարելու այդ առաջընթացը և ինչ-որ կերպ գտնել մեր պատիվը, մեր բախտը և մեր կյանքը ապահովելու մեր ճանապարհը:

Կարո՞ղ ենք դա խոստանալ:

Հույս ունեմ.

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- ռոբոտ-ստեղծողները-ասում են-կխուսափեն-ai-weaponization/