Արհեստական ​​ինտելեկտի էթիկան խաթարված է վերջին Չինաստանի կողմից մշակված AI-ի կողմից հավատարմության երեկույթների դեմքի ճանաչման վկայագիր, որը կարող է նախանշել ճնշող ինքնավար համակարգերը

Դուք հավատարիմ եք?

Տեսականորեն, հնարավոր է, որ հնարավոր լինի ուսումնասիրել ձեր բացահայտ արարքները և պարզել, թե արդյոք հավատարմությունը դրսևորվում է ձեր գործողություններով:

Ենթադրենք, սակայն, փոխարենը փորձ է արվել կարդալ ձեր միտքը և միևնույն ժամանակ սկանավորել ձեր դեմքը՝ որոշելու ձեր հավատարմության գործակիցը: Սա սարսափելի աներես է. դուք կարող եք պատրաստակամորեն բղավել: Հնչում է այն խելահեղ գիտաֆանտաստիկ ֆիլմերից մեկը, որը պատկերացնում է ապագա դիստոպիկ հասարակությունը:

Բարեբախտաբար, դուք գաղտագողի շշնջում եք ինքներդ ձեզ՝ մենք այսօր նման բան չունենք։

Վայ, ձիերդ պահիր։

Վերջերս լուրերի վերնագրերը բղավում են, որ Չինաստանում 1 թվականի հուլիսի 2022-ին առցանց հրապարակված հետազոտական ​​հոդվածը պատկերում է մի ուսումնասիրություն, որը ենթադրաբար ներառում է մարդկանց ուղեղի ալիքների և նրանց դեմքի արտահայտությունների գնահատումը՝ հաշվարկելու համար, թե արդյոք նրանք հավատարիմ են Չինաստանի կոմունիստական ​​կուսակցությանը (CCP): . Այսպիսով, արի ու տես, որ ապագան ավելի ու ավելի է մոտենում, գոնե այն դիստոպիկ հասարակությանը հասնելու առումով, որը մենք վախենում էինք, որ երբևէ կարող է առաջանալ:

Հետազոտական ​​փաստաթուղթը արագ անհետացավ իր առցանց տեղադրված հղումից:

Ենթադրաբար, արագ արհամարհանքը, որն արագորեն տարածվեց համացանցը, բավական էր թերթը հանելու համար: Կամ, գուցե հետազոտողները պարզապես ցանկանում են կատարել մի քանի ձևակերպման փոփոխություններ և այլ անվնաս ուղղումներ՝ նպատակ ունենալով վերահաստատել այն բանից հետո, երբ նրանք ավելի մանրակրկիտ հնարավորություն ունենան համոզվելու, որ i-երը կետավոր են, և t-երը բոլորը խաչված են: Մենք պետք է բաց պահենք մեր աչքերը, որպեսզի տեսնենք, թե արդյոք թերթը երկրորդ կյանք կստանա:

Ես պատրաստվում եմ առաջ գնալ և խորը ուսումնասիրել այն, ինչ մենք գիտենք հետազոտական ​​ուսումնասիրության մասին և կփորձեմ կապել կետերն այն մասին, թե ինչպես է այս տեսակի արհեստական ​​ինտելեկտի հետ կապված աշխատանքը կարևոր նշանակություն ունի բոլորիս համար՝ դուրս գալով սա տեսնելու շրջանակներից։ որպես սահմանափակված մեկ կոնկրետ երկրում: Իմ լուսաբանումը կլինի մի փոքր ավելի ընդարձակ, քան այս նորությունների արժանի նյութի վերաբերյալ մյուս վերջին հաղորդումները, ուստի խնդրում եմ համբերել ինձ հետ:

Իմ ավելացված շեշտադրումը նույնպես կլինի այն, որ կա մի շարք կենսական AI Էթիկայի դասեր, որոնք մենք կարող ենք քաղել ենթադրյալ թղթից: AI-ի էթիկայի և էթիկական AI-ի իմ շարունակական և ընդարձակ լուսաբանման համար տե՛ս հղումն այստեղ և հղումն այստեղ, պարզապես մի քանի անուն:

Ահա թե ինչ է մինչ այժմ նշվել հետազոտական ​​ուսումնասիրության մասին:

Ըստ երևույթին, որոշ «կամավորներ» են հավաքագրվել՝ մասնակցելու ՔԿԿ-ի ընկալումների վերաբերյալ փորձին: Արդյո՞ք նրանք պատրաստակամ կամավորներ էին, թե ավելի շատ նման էին կամավորների կամավորներին, որոնք կարող էին առաջնորդվել, հայտնի չէ: Քննարկման համար կենթադրենք, որ նրանք համաձայն էին ուսումնասիրության առարկա լինել:

Ես դա բերում եմ, որպեսզի պարզապես խելագար չլինեմ: Ամեն անգամ, երբ փորձ է արվում մարդկանց հետ կապված, կան մի շարք ընդհանուր ընդունված պրակտիկաներ՝ կապված այդպիսի առարկաների ներգրավման և հետազոտական ​​աշխատանքների մեջ ընկղմման հետ: Սա մասամբ վերաբերում է նախորդ ուսումնասիրություններին, որոնք հաճախ խաբում կամ ստիպում էին մարդկանց ներգրավվել փորձի մեջ՝ երբեմն հանգեցնելով բացասական հոգեբանական հետևանքների կամ նույնիսկ ֆիզիկական վնասի այդ մասնակիցների համար: Գիտական ​​հանրությունը մեծ ջանքեր է գործադրել սահմանափակել այդ տեսակի նենգ ուսումնասիրությունները և պահանջում է, որ բոլոր տեսակի բացահայտումներ և նախազգուշացումներ տրամադրվեն նրանց, ովքեր ցանկանում են ներառել մարդու հետ կապված հետազոտություններում:

Պարզաբանելու համար, ոչ բոլորն են ենթարկվում նման խոհեմ և բարեխիղճ ուղեցույցներին:

Շարունակելով՝ հաղորդվում է, որ 43 սուբյեկտներ են եղել, և նրանք Չինաստանի Կոմունիստական ​​կուսակցության անդամներ են: Հիշեք, որ փորձի համար առարկաների ընտրությունը բավականին կարևոր է փորձի համար և պետք է նաև հաշվի առնել ցանկացած եզրակացության վերաբերյալ, որից հետո կարող եք փորձել գալ փորձի արդյունքների վերաբերյալ:

Ենթադրենք, ես ուզում եմ փորձ անել, թե ինչպես են մարդիկ ընկալում «Աստղային պատերազմներ» հայտնի սերիալը: Եթե ​​ես նախապես ընտրեմ թեմաներ, որոնք բոլորն էլ խիստ ատում են «Աստղային պատերազմները» (ինչպե՞ս կարող են այդպիսի մարդիկ գոյություն ունենալ), և ես նրանց ցույց տամ «Աստղային պատերազմների» տեսահոլովակներ, ապա հավանական է, որ նրանք, հավանաբար, կասեն, որ դեռ չեն սիրում «Աստղային պատերազմները»: Ելնելով այս կեղծ գիտական ​​փորձից՝ ես, երևի թե, խորամանկորեն պնդում եմ, որ մարդիկ, ընդհանուր առմամբ, իսկապես ատում են «Աստղային պատերազմները», ինչը «ապացուցվել է» (աչքով անելով) իմ «զգույշ» պատրաստված հետազոտական ​​միջավայրում:

Դուք գուցե չգիտեիք, որ ես կեղծել էի ռուլետկա անիվը, այսպես ասած, նախապես ընտրելով այն առարկաները, որոնք ես ակնկալում էի, որ կտան իմ գաղտնի ցանկալի արդյունքները: Իհարկե, եթե ես փոխարենը միտումնավոր հավաքագրեի մարդկանց, ովքեր սիրում էին «Աստղային պատերազմներ» և եռանդուն մոլի երկրպագուներ էին, մեծ է հավանականությունը, որ նրանք կզեկուցեին որպես հիացած դիտելով «Աստղային պատերազմների» այդ հոլովակները: Կրկին, ցանկացած եզրակացություն, որ հանգել է այն մասին, թե ինչպես են մարդիկ, ընդհանուր առմամբ, արձագանքում «Աստղային պատերազմներին», կզսպված լինեն ջանքերի համար ընտրված նախապես ընտրված թեմաներից:

CCP-ի վրա կենտրոնացած ուսումնասիրությունը, կարծես թե, սուբյեկտները նստեցին կրպակի նմանվող տեսահոլովակի առջև և կարդային տարբեր հոդվածներ CCP-ի քաղաքականության և ձեռքբերումների մասին: Սա հավանաբար համարվում է «փորձարարական բուժում», որին ենթարկվում են սուբյեկտները: Փորձը պլանավորելիս սովորաբար գալիս եք փորձարարական գործոն կամ ասպեկտ, որը ցանկանում եք տեսնել, թե արդյոք դա ազդում է մասնակիցների վրա:

Հետազոտության հարցն, ըստ երևույթին, ուսումնասիրվում էր այն մասին, թե արդյոք այս նյութերի վերանայման գործողությունը որևէ ազդեցություն կունենա սուբյեկտների վրա՝ ավելացնելու, նվազելու կամ չեզոք լինելու առումով ՔԴԿ-ի վերաբերյալ նրանց հետագա տպավորությունների նկատմամբ:

Դասական զրոյական հիպոթեզում դուք կարող եք կազմակերպել նման ուսումնասիրություն՝ նշելու, որ սպառված նյութերը որևէ ազդեցություն չունեն առարկաների կողմից արտահայտված հետագա տպավորությունների վրա: ՀԴԿ-ի վերաբերյալ նրանց տեսակետների համեմատությունը կատարելուց առաջ և հետո, վիճակագրորեն կփորձեք տեսնել, թե արդյոք նրանց տպավորությունների փոփոխության վիճակագրորեն նշանակալի հայտնաբերում կա:

Կարող է լինել, որ առաջն ու հետոը վիճակագրորեն տարբեր չեն, հետևաբար, դուք կարող եք ողջամտորեն պայմանականորեն եզրակացնել, որ այս կոնկրետ ուսումնասիրության համար ցուցադրված նյութերը (փորձարարական բուժում) կարծես թե տարբերություն չեն դրել իրենց տպավորությունների մեջ: Մյուս կողմից, եթե վիճակագրորեն հիմնավոր տարբերություն լիներ, դուք կփնտրեիք՝ տեսնելու, թե արդյոք «հետո»-ն ավելի մեծ է, քան նախկինում, ինչը թույլ է տալիս խելամտորեն առաջարկել, որ նյութերը խթանում են իրենց տպավորությունները (և, մետաղադրամի մյուս կողմում, եթե. հետոն ավելի քիչ էր, քան նախորդը, սա կարող է նշանակել, որ նյութերը թուլացրել կամ իջեցրել են իրենց տպավորությունները):

Գոյություն ունեն բազմաթիվ անհանգիստ չամրացված ծայրեր, որոնք պետք է լուծվեն նման ուսումնասիրության ժամանակ:

Օրինակ, մենք սովորաբար ցանկանում ենք ունենալ այսպես կոչված վերահսկիչ խումբ, որը կարող ենք համեմատել նրանց հետ, ովքեր ստանում են փորձարարական բուժում: Ահա թե ինչու. Ենթադրենք, որ կրպակի դիմաց նյութեր կարդալու համար նստելը իրական հիմքն էր, թե ինչու են փոխվել տպավորությունները: Կարող է լինել, որ սպառված նյութերի բնույթը մոտավորապես էական չէ տպավորության ազդեցության համար: Միայն նստելն ու որևէ բան կարդալը, ինչպես օրինակ կատուների մասին վերջին պատմությունները, որոնք զվարճալի բաներ են անում, միայնակ կարող է հաջողության հասնել: Հետևաբար, մենք կարող ենք կազմակերպել, որ որոշ առարկաներ լինեն մեր վերահսկիչ խմբում, որոնք ենթակա են կարդալու այլ նյութերի, բացառությամբ CCP-ի քաղաքականության և ձեռքբերումների նյութերի:

Մենք չգիտենք, արդյոք դա արվել է այս դեպքում (որևէ մեկը կարծես թե դեռ չի նշել այս կողմը):

Ես հասկանում եմ, որ դուք այժմ զայրացած եք ուսումնասիրության մեդիա պայթյունավտանգ մասի վերաբերյալ: Մենք արագորեն կանցնենք այդ հատվածին:

Ինչպե՞ս կարող ենք պարզել, թե արդյոք այս փորձի մասնակիցները արձագանքել են կամ փոխել իրենց տպավորությունները ցուցադրված նյութերը կարդալու արդյունքում:

Սովորական միջոց կլինի նրանց հարցնելը։

Դուք նախօրոք կկազմակերպեիք հարցաթերթիկ, որը կհարցնի նրանց ՔԿԿ-ի մասին իրենց տպավորությունները: Այնուհետև, փորձարարական բուժման ենթարկվելուց հետո, ինչպես ցուցադրվող նյութերի ընթերցման ժամանակ, մենք կարող էինք մեկ այլ հարցաշար վարել: Այնուհետև կարելի է համեմատել առարկաների կողմից առաջ և հետո տրված պատասխանները: Եթե ​​մենք օգտագործեինք նաև վերահսկիչ խումբ, մենք կենթադրեինք, որ վերահսկիչ խմբի պատասխանները էականորեն չէին փոխվի նախորդից հետո (այն համոզմունքի համաձայն, որ կատաղած կատուների մասին պատմությունները դիտելը չպետք է ազդի նրանց CCP տպավորությունների վրա):

Սուբյեկտներից իրենց տպավորությունները հարցնելու այս գործողությունն այնքան էլ պարզ չէ, որքան կարող է թվալ:

Ենթադրենք, որ փորձի մասնակիցները ստանում են այնպիսի զգացում կամ ընդհանուր շեղում, որ դուք ցանկանում եք, որ նրանք որոշակի կերպով արձագանքեն փորձարարական բուժմանը: Այդ դեպքում նրանք կարող են միտումնավոր գերագնահատել իրենց արձագանքները փորձարարական վարչարարության հաջորդ մասում: Դուք, անշուշտ, տեսել եք, որ դա տեղի է ունենում: Եթե ​​ես շուկայում հայտնված նոր գազավորված ըմպելիքի համի թեստ եմ անում, ես կարող եմ վարվել այնպես, կարծես գազավորված ըմպելիքը շատ եմ հավանել՝ հույս ունենալով, որ հնարավոր է հայտնվեմ գազավորված ըմպելիք արտադրողի գովազդում և ստանամ իմ արժանի տասնհինգ րոպե փառքը: .

Էությունը այն է, որ մարդկանց կարծիքը հարցնելը փոփոխությունները չափելու հաստատ միջոց չէ: Մեկ մոտեցում է. Այլ մոտեցումներ կարող են և նույնպես հաճախ ձեռնարկվում են:

Ինչպե՞ս է այս կոնկրետ ուսումնասիրությունը որոշել չափել առարկաների արձագանքները:

Ըստ երևույթին, օգտագործվել է առնվազն երկու մեթոդ. Մեթոդներից մեկը բաղկացած էր դեմքի սկանավորումից և AI-ի վրա հիմնված դեմքի ճանաչման ծրագրային ապահովման օգտագործումից՝ հետազոտվողների արձագանքները գնահատելու համար: Հաղորդվում է, որ մյուս մեթոդը ուղեղի ալիքների սկանավորման ինչ-որ ձև էր: Դեռևս չի հաղորդվել, թե ինչ տեսակի ուղեղի ալիքների սկանավորման սարքեր են օգտագործվել, ինչպես նաև, թե ինչ տեսակի AI-ի վրա հիմնված ուղեղի ալիքների վերլուծության ծրագրակազմ է օգտագործվել:

Տարբեր զեկույցներ ցույց են տվել, որ հետազոտության մեջ ասվում է փորձի բնույթի մասին. «Մի կողմից այն կարող է դատել, թե ինչպես են կուսակցության անդամներն ընդունել միտքը և քաղաքական կրթությունը»: Եվ ուսումնասիրությունը, իբր, նաև սա է նշել. «Մյուս կողմից, այն իրական տվյալներ կտա մտքի և քաղաքական կրթության համար, որպեսզի այն բարելավվի և հարստացվի»: Հետազոտական ​​հետազոտությունը վերագրվում էր Չինաստանի Հեֆեյի համապարփակ ազգային գիտական ​​կենտրոնի հովանու ներքո:

Լրատվամիջոցների հաղորդագրությունները ենթադրում են, որ ուսումնասիրությունը ակնարկում է այն պնդումը, որ դեմքի ճանաչման սկանավորումները և ուղեղի ալիքների սկանավորումները կարողացել են օգնել բացահայտելու, որ CCP-ի մասին տպավորություններն ուժեղացել են:

Ես կցանկանայի նշել ձեզ համար, որ չկարողանալով ուղղակիորեն վերանայել օգտագործված համակարգերը և ուշադիր ուսումնասիրել հետազոտական ​​փաստաթուղթը, մենք չգիտենք այն մանրամասները, թե ինչպես են AI-ի վրա հիմնված այդ համակարգերը ճշգրիտ օգտագործվել:

Հնարավոր է, որ սուբյեկտները ավելի շուտ արձագանքում էին փորձարարական միջավայրին, քան արձագանքում էին փորձարարական բուժմանը: Յուրաքանչյուր ոք, ով մասնակցում է ուսումնասիրությանը, կարող է անհանգստանալ, սկզբից: Սա կարող է շփոթեցնել ուղեղի ալիքների սկանավորում կամ դեմքի օրինաչափության վերլուծություն կատարելու ցանկացած ջանքեր: Հնարավորություն կա նաև, որ նրանք մոտիվացված են եղել հետազոտողներին հաճոյանալու համար՝ ընտրելով նյութերը տեսնելուց հետո դրական մտքեր հորինել, և դա տեսականորեն կարող է արտացոլվել ուղեղի ալիքների և դեմքի սկանավորումների վրա (գուցե, թեև խնդրում եմ իմացեք, որ կա մեծ Նման վեճերի վավերականության շուրջ բուռն վեճեր, ինչպես ես մի պահ պարզաբանեմ), հուսալով շեղել արդյունքները և ցույց տալ, որ դրանք դրական ազդեցություն են ունեցել:

Twitter-ի արձագանքը էականորեն դատապարտում է, որ AI-ի վրա աշխատող ուղեղի ալիքների սկանավորման և դեմքի ճանաչման կիրառման գաղափարն ինքնին սարսափելի և զզվելի արարք է: Միայն մարդկային հրեշները կօգտագործեն այդ տեսակի սարքերը, մեզ ասում են այդ թվիթերից մի քանիսը:

Ես պետք է խնդրեմ ձեզ նստել և պատրաստվել մի բանի, որը կարող է կոպիտ և ցնցող անակնկալ լինել:

Աշխարհում կան բազմաթիվ հետազոտողներ, որոնք օգտագործում են այդ նույն տեսակի տեխնոլոգիաները իրենց հետազոտական ​​ուսումնասիրություններում: Սա, անշուշտ, առաջին անգամը չէ, որ ուղեղի ալիքների սկանավորման հնարավորությունը օգտագործվում է մարդկային առարկաների վրա հետազոտական ​​ջանքերի համար: Սա նաև, իհարկե, առաջին դեպքը չէր, երբ դեմքի ճանաչումը կիրառվում էր մարդկանց վրա փորձարարական նպատակներով: Նույնիսկ հպանցիկ առցանց որոնումը ձեզ ցույց կտա շատ ու շատ փորձարարական ուսումնասիրություններ բոլոր տեսակի երկրների և լաբորատորիաներում, որոնք օգտագործել են այդ տեսակի սարքերը:

Այժմ, երբ ասվում է, դրանց օգտագործումը ՔԴԿ-ի նկատմամբ հավատարմությունը չափելու համար այն չէ, ինչի վրա մեծ ուշադրություն կգտնեք: Երբ նման արհեստական ​​ինտելեկտն օգտագործվում է կառավարական վերահսկողության համար, ինչպես ասում են, կարմիր գիծն անցել է։

Դա ամբողջ հանդերձանքի և կաբուդլի ակնհայտ սառեցնող մասն է:

Շատերի կողմից արտահայտված մտահոգությունն այն է, որ եթե կառավարությունները որոշեն օգտագործել ուղեղի ալիքների սկանավորման տեխնոլոգիան և դեմքի ճանաչումը՝ պարզելու համար հավատարմությունը գործող ռեժիմներին, մենք կհայտնվենք ցավի դիստոպիկ աշխարհում: Երբ դուք քայլում եք հանրային փողոցով, կարող է պատահել, որ լամպի սյան վրա տեղադրված սարքը գաղտնի կերպով որոշել է ձեր հավատարմության գործակիցը:

Ենթադրվում է, որ եթե ձեր դեմքը չի ենթադրում, որ բավականաչափ հավատարիմ եք, կամ եթե ուղեղի ալիքների սկանավորումը նույնն է հուշում, պետական ​​ավազակները կարող են հանկարծակի շտապել և բռնել ձեզ: Անհանգստացնող. Անհոգի։ Չի կարելի թույլ տալ.

Ահա թե ինչու է վերնագիրը բուռն աղմուկ ու վրդովմունք առաջացել այս լրատվականի վրա:

Պատկերացրեք սա. Մենք, հավանաբար, պատրաստվում ենք ստեղծել, և այնուհետև օգտագործել համակարգչային համակարգեր, որոնք օգտագործում են արհեստական ​​ինտելեկտի վերջին տարբերակը՝ որոշելու՝ արդյոք մենք հավատարիմ ենք, թե ոչ: Եթե ​​դուք փորձեիք վարձել մարդկանց, որպեսզի նստեն և նույնն անեն, ձեզ շատ մարդիկ պետք կգան, և դուք կունենաք լոգիստիկ խնդիր՝ փորձելով նրանց դիրքավորել բոլորին աչքի առաջ: Արհեստական ​​ինտելեկտի վրա հիմնված համակարգի դեպքում անհրաժեշտ է միայն էլեկտրոնային սարքերը տեղադրել լամպերի սյուների վրա, շենքերի կողմերում և այլն: Հավատարմության սկանավորումը կարող է տեղի ունենալ 24×7 ռեժիմով, միշտ, այսքան սարքավորված բոլոր վայրերում: Այն կարող է այնուհետև սնվել հսկայական տվյալների բազայում:

Մենք դառնում ենք մարդիկ, որոնք պարզապես ատամնանիվներ են հսկա բոլորին տեսնող և դիտող հասարակական ճնշող էկոհամակարգում: Տեսնող աչքը պարզապես հետևելը չէ, թե ինչ ենք մենք անում: Դա նաև մեկնաբանում է այն, ինչ ասում են մեր դեմքերը իշխանությանը մեր հավատարմության մասին։ Մեր միտքը նույնպես պետք է քննվի նմանատիպ սարսափելի պատճառով:

Yikes!

Կա մի երկրորդական մտահոգություն, որը գալիս է նաև դրանից, թեև, թերևս, ոչ այնքան փշոտ, համեմատած Մեծ Եղբոր հետևանքների հետ, ինչպես արդեն ուրվագծված է:

Խորհեք այս երկու հրատապ հարցերի շուրջ.

  • Կարո՞ղ ենք վստահորեն պնդել, որ ուղեղի ալիքների սկանավորումը կարող է վկայել ձեր հավատարմության մասին:
  • Կարո՞ղ ենք վստահորեն պնդել, որ դեմքի ճանաչման սկանավորումը կարող է վկայել ձեր հավատարմության մասին:

Մնացեք այնտեղ, դուք կարող եք բղավել ձեր թոքերի վերևում:

Ես գիտակցում և ընդունում եմ, որ դուք կարող եք այնքան էլ մտահոգ չլինել հուսալիության ասպեկտներին ինքնին: Արդյոք դա կարելի է անել հուսալիորեն, ավելի քիչ կարևոր է, քան այն փաստը, որ դա ընդհանրապես արվում է: Ոչ ոք չպետք է նման հսկողության տակ լինի։ Մոռացեք այն մասին, թե արդյոք տեխնոլոգիան համապատասխան է աշխատում այս առաջադրանքի համար: Մենք չպետք է ստանձնենք առաջադրանքը հենց սկզբից:

Ամեն դեպքում, պատասխանն այս պահին վճռական ոչ է, այն է, որ գոյություն ունեցող արհեստական ​​ինտելեկտի համակարգերը, որոնք կատարում են «ուղեղի ալիքների սկանավորում» և դեմքի ճանաչման որևէ տեսք, բավականաչափ ունակ չեն այդ թռիչքը կատարելու համար:

Դուք, հավանաբար, վերջերս տեսել եք, որ դեմքի ճանաչման որոշ արտադրողներ որոշ հետընթաց են կատարել այն առումով, թե ինչպես են իրենց դեմքի ճանաչման համակարգերը օգտագործվում: Առաջիկա սյունակի հրապարակման մեջ ես կքննարկեմ Microsoft-ի վերջին ջանքերը, որոնք փորձում են կասեցնել Microsoft-ի կողմից տրամադրված դեմքի ճանաչման գործիքներն օգտագործողների ալիքը շատ ավելին, քան տեխնոլոգիան կարող է անել կամ պետք է օգտագործվի: . Դուք կարող եք հետաքրքրել իմ ավելի վաղ դիտարկումը AI-ի էթիկայի վիճաբանություններին, որոնք արդեն լավ հրապարակվել են դեմքի ճանաչման մասին, տես. հղումն այստեղ. Ես նաև քննարկել եմ ուղեղի ալիքների սկանավորման ասպարեզը, տես իմ քննարկումը այստեղ հղումն այստեղ.

Մի խոսքով, դեռևս չկան հուսալի կամ խելամիտ միջոցներ, որոնք թույլ կտան ենթադրել, որ ուղեղի ալիքների սկանավորումը կամ դեմքի ճանաչման սկանավորումը կարող է իբր պատկերել ինչ-որ մեկի հավատարմությունը: Նույնիսկ ենթադրաբար հիմնական կողմերը, ինչպիսիք են, թե արդյոք դուք կարող եք հուսալիորեն կապել այդ սկանավորումները, թե արդյոք ինչ-որ մեկը ուրախ է և տխուր, դեռևս թեժ քննարկվում են: Փորձելն առաջ տանել այնպիսի ամորֆ և փոփոխական բանի, ինչպիսին հավատարմությունն է, չափազանց հեռու կամուրջ է:

Ես կարող եմ ավելացնել, որ ոմանք եռանդորեն հավատում են, որ մենք ի վերջո հասնելու ենք այնտեղ: Այդ իսկ պատճառով ես ուշադիր փորձել եմ նշել, որ մենք դեռ այնտեղ չենք, այլ ոչ թե ասել, որ երբեք չենք հասնի այնտեղ: Երբեք մեծ բառ չէ: Դուք պետք է բացարձակապես վստահ լինեք, եթե պատրաստվում եք շպրտել այդ կամքը երբեք լինել իրագործելի (նկատի ունենալով, որ «երբեք»-ը ներառում է տասնամյակներ, դարեր անց և հազարավոր կամ միլիոնավոր տարիներ հետո):

Ոմանք արձագանքել են այս չինական լաբորատոր հետազոտության մասին լուրերին որպես ցուցիչ այն բանի, թե որքան վտանգավոր է աշխարհը շրջվում արհեստական ​​ինտելեկտի ոչ պատշաճ և վտանգավոր կիրառություններին: Ես ձեզ հետ մի պահ կկիսվեմ մի հայացքով, թե ինչ է իրենից ներկայացնում AI-ի էթիկան: Սա կօգնի ձեզ ավելի հստակ տեսնել, թե ինչու է այս կոնկրետ ուսումնասիրությունը կարծես խախտում էթիկական արհեստական ​​ինտելեկտի ընդհանուր ընդունված սկզբունքները, եթե ոչ գրեթե բոլորը:

Հավատում եք, թե ոչ, ոմանք առաջարկել են, որ միգուցե մենք սար ենք սարքում խլուրդից՝ կապված այս կոնկրետ ուսումնասիրության հետ:

Մենք ենք?

Հակափաստարկն այն է, որ խլուրդը շուտով կարող է լեռ դառնալ: Ձնագնդի մասին ասացվածքային հասկացության մեջ, որն ավելի ու ավելի մեծանում է, երբ գլորվում է ձնառատ բլուրով, մենք պետք է կանգնեցնենք ձնագնդի ընթացքը: Եթե ​​մենք հանդուրժենք այս տեսակի ուսումնասիրությունները, մենք թույլ ենք տալիս, որ այդ ձնագնդին սկսի իր ճանապարհը: Բարձրաձայնելով և հրավիրելով նման ուսումնասիրություններ, գուցե մենք կարողանանք կանխել ձնագնդի առաջացումը:

Մի բան հաստատ է, որ մենք գտնվում ենք Պանդորայի արկղը բացելու շեմին, երբ խոսքը վերաբերում է AI-ի ասպեկտներին, և մնում է հարցը, թե արդյոք մենք կարող ենք կանխել տուփի բացումը կամ գոնե ինչ-որ միջոցներ գտնել՝ խելամտորեն վարվելու այն ամենի հետ, ինչ դուրս կգա: երբ տուփը սանձազերծել է իր սատանայական պարունակությունը:

Եթե ​​ուրիշ ոչինչ, հուսով ենք, որ այս տեսակի մեդիա փոթորիկները կհանգեցնեն լայն քննարկումների այն մասին, թե ինչպես ենք մենք պատրաստվում կանխել AI-ի հետ կապված չարագործությունները և կանխել AI-ի կողմից առաջացած բազմաթիվ գոյաբանական ռիսկերը: Մենք պետք է բարձրացնենք մեր հասարակության իրազեկությունը AI-ի էթիկայի և էթիկական AI նկատառումների վերաբերյալ:

Նախքան այս տեսակի արհեստական ​​ինտելեկտի համակարգերի հիմքում ընկած վայրի և բրդյա նկատառումների մասին ավելի շատ մսի և կարտոֆիլի մասին խոսելը, եկեք որոշ լրացուցիչ հիմունքներ հիմնենք խորապես կարևոր թեմաների վերաբերյալ: Մենք պետք է հակիրճ ուսումնասիրենք AI-ի էթիկա և հատկապես Մեքենայական ուսուցման (ML) և Deep Learning (DL) ի հայտ գալը:

Դուք կարող եք անորոշ տեղյակ լինել, որ այս օրերի ամենաբարձր ձայներից մեկը AI ոլորտում և նույնիսկ արհեստական ​​ինտելեկտի դաշտից դուրս բաղկացած է էթիկական արհեստական ​​ինտելեկտի ավելի մեծ երևույթի մասին աղաղակելուց: Եկեք նայենք, թե ինչ է նշանակում հղում կատարել AI-ի էթիկային և էթիկական AI-ին: Բացի այդ, մենք կուսումնասիրենք, թե ինչ նկատի ունեմ, երբ խոսում եմ մեքենայական ուսուցման և խորը ուսուցման մասին:

Արհեստական ​​ինտելեկտի էթիկայի որոշակի հատված կամ մի հատված, որը արժանացել է ԶԼՄ-ների մեծ ուշադրությանը, բաղկացած է AI-ից, որը ցուցադրում է անբարենպաստ կողմնակալություններ և անհավասարություններ: Դուք կարող եք տեղյակ լինել, որ երբ սկսվեց AI-ի վերջին դարաշրջանը, խանդավառության մեծ պոռթկում էր այն, ինչ այժմ ոմանք անվանում են: AI For Good. Ցավոք սրտի, այդ բուռն հուզմունքից հետո մենք սկսեցինք ականատես լինել AI For Bad. Օրինակ, AI-ի վրա հիմնված դեմքի ճանաչման տարբեր համակարգեր բացահայտվել են որպես ռասայական և գենդերային կողմնակալություններ պարունակող, որոնք ես քննարկել եմ հղումն այստեղ.

Դեմ պայքարելու ջանքերը AI For Bad ակտիվորեն ընթանում են։ Բացի աղմկոտ իրավական Սխալ արարքները զսպելու ձգտումները, կա նաև զգալի մղում դեպի AI էթիկան ընդունելու՝ AI-ի ստորությունը շտկելու համար: Հասկացությունը կայանում է նրանում, որ մենք պետք է ընդունենք և հաստատենք Արհեստական ​​ինտելեկտի էթիկական հիմնական սկզբունքները Արհեստական ​​ինտելեկտի զարգացման և ներդրման համար՝ դա անելով նվազեցնելու համար AI For Bad և միաժամանակ ազդարարելով և խթանելով նախընտրելիը AI For Good.

Համապատասխան հասկացության համաձայն՝ ես AI-ն օգտագործելու ջատագովն եմ՝ որպես արհեստական ​​ինտելեկտի դժբախտությունների լուծման մաս՝ կրակը կրակի հետ պայքարելով այդ մտածելակերպով: Օրինակ՝ մենք կարող ենք ներդնել Արհեստական ​​ինտելեկտի էթիկական բաղադրիչները արհեստական ​​ինտելեկտի համակարգում, որը կհետևի, թե ինչպես է AI-ի մնացած անդամներն անում բաներ և այդպիսով իրական ժամանակում պոտենցիալ կերպով կբռնեն ցանկացած խտրական ջանք, տես իմ քննարկումը. հղումն այստեղ. Մենք կարող ենք նաև ունենալ AI-ի առանձին համակարգ, որը հանդես է գալիս որպես AI Էթիկայի մոնիտոր: Արհեստական ​​ինտելեկտի համակարգը ծառայում է որպես վերահսկիչ՝ հետևելու և հայտնաբերելու, թե երբ է մեկ այլ AI գնում ոչ էթիկական անդունդ (տե՛ս նման հնարավորությունների իմ վերլուծությունը այստեղ՝ հղումն այստեղ).

Քիչ անց ես ձեզ հետ կկիսվեմ AI-ի էթիկայի հիմքում ընկած մի քանի հիմնական սկզբունքներով: Այս տեսակի ցուցակները շատ են լողում այս ու այն կողմ: Կարելի է ասել, որ դեռևս չկա համընդհանուր բողոքարկման և համաձայնության եզակի ցուցակ: Սա ցավալի լուր է: Լավ նորությունն այն է, որ գոնե կան AI-ի էթիկայի մատչելի ցուցակներ, և դրանք հակված են միանգամայն նման լինել: Ընդհանուր առմամբ, սա ենթադրում է, որ մի տեսակ հիմնավորված մերձեցման միջոցով մենք գտնում ենք մեր ճանապարհը դեպի ընդհանուր ընդհանրություն, թե ինչից է բաղկացած AI էթիկան:

Նախ, եկեք համառոտ անդրադառնանք էթիկական արհեստական ​​ինտելեկտի ընդհանուր կանոններից մի քանիսին, որպեսզի ցույց տանք, թե ինչ պետք է լինի կենսական նշանակություն ունեցող ցանկացած մարդու համար, ով արհեստագործում է, զբաղվում կամ օգտագործում է AI:

Օրինակ, ինչպես նշվում է Վատիկանի կողմից Հռոմը AI-ի էթիկայի կոչ է անում և քանի որ ես խորությամբ անդրադարձել եմ հղումն այստեղ, սրանք են նրանց բացահայտված AI-ի էթիկայի վեց հիմնական սկզբունքները.

  • Թափանցիկություն. Սկզբունքորեն, AI համակարգերը պետք է բացատրելի լինեն
  • Ներառումը. Պետք է հաշվի առնել բոլոր մարդկանց կարիքները, որպեսզի բոլորը կարողանան օգուտ քաղել, և բոլոր անհատներին առաջարկել լավագույն պայմաններն ինքնադրսևորվելու և զարգանալու համար։
  • Պատասխանատվություն ` Նրանք, ովքեր նախագծում և կիրառում են AI-ի օգտագործումը, պետք է գործեն պատասխանատվությամբ և թափանցիկությամբ
  • Անաչառություն. Մի ստեղծեք կամ մի գործեք ըստ կողմնակալության՝ դրանով իսկ պաշտպանելով արդարությունն ու մարդկային արժանապատվությունը
  • հուսալիություն: AI համակարգերը պետք է կարողանան հուսալիորեն աշխատել
  • Անվտանգություն և գաղտնիություն. AI համակարգերը պետք է ապահով աշխատեն և հարգեն օգտատերերի գաղտնիությունը:

Ինչպես նշված է ԱՄՆ պաշտպանության նախարարության (DoD) կողմից իրենց Արհեստական ​​ինտելեկտի օգտագործման էթիկական սկզբունքներ և քանի որ ես խորությամբ անդրադարձել եմ հղումն այստեղ, սրանք են AI-ի նրանց վեց հիմնական էթիկայի սկզբունքները.

  • Պատասխանատու: DoD անձնակազմը կկիրառի դատողության և խնամքի համապատասխան մակարդակներ՝ միաժամանակ պատասխանատու մնալով AI կարողությունների զարգացման, տեղակայման և օգտագործման համար:
  • Արդար: Դեպարտամենտը կանխամտածված քայլեր կձեռնարկի՝ նվազագույնի հասցնելու AI կարողությունների մեջ չնախատեսված կողմնակալությունը:
  • Հետագծելի: Դեպարտամենտի AI կարողությունները կզարգացվեն և կտեղակայվեն այնպես, որ համապատասխան անձնակազմը համապատասխան պատկերացում ունենա տեխնոլոգիայի, զարգացման գործընթացների և գործառնական մեթոդների մասին, որոնք կիրառելի են AI կարողությունների համար, ներառյալ թափանցիկ և աուդիտի ենթարկվող մեթոդաբանությունները, տվյալների աղբյուրները և նախագծման ընթացակարգն ու փաստաթղթերը:
  • Վստահելի: Դեպարտամենտի արհեստական ​​ինտելեկտի հնարավորությունները կունենան հստակ, հստակորեն սահմանված կիրառումներ, և նման հնարավորությունների անվտանգությունը, անվտանգությունը և արդյունավետությունը ենթակա կլինեն փորձարկման և հավաստիացման՝ սահմանված օգտագործման շրջանակում դրանց ողջ կյանքի ընթացքում:
  • Կառավարվող. Դեպարտամենտը նախագծելու և նախագծելու է AI-ի հնարավորությունները՝ իրականացնելու իրենց նախատեսված գործառույթները՝ միաժամանակ ունենալով անցանկալի հետևանքները հայտնաբերելու և խուսափելու, ինչպես նաև չնախատեսված վարք դրսևորող տեղակայված համակարգերը անջատելու կամ անջատելու կարողություն:

Ես նաև քննարկել եմ AI էթիկայի սկզբունքների տարբեր կոլեկտիվ վերլուծություններ, ներառյալ հետազոտողների կողմից մշակված մի շարք, որոնք ուսումնասիրել և խտացրել են բազմաթիվ ազգային և միջազգային AI էթիկայի դրույթների էությունը «Արհեստական ​​ինտելեկտի էթիկայի գլոբալ լանդշաֆտը» վերնագրով հոդվածում (հրատարակված): մեջ բնություն), և որ իմ լուսաբանումն ուսումնասիրում է հղումն այստեղ, որը հանգեցրեց այս հիմնական ցուցակին.

  • Թափանցիկություն
  • Արդարություն և արդարություն
  • Ոչ չարամտություն
  • պատասխանատվություն
  • Գաղտնիության
  • Բարեգործություն
  • Ազատություն և ինքնավարություն
  • Վստահեք
  • Կայունություն
  • Արժանապատվություն
  • Համերաշխություն

Ինչպես կարող եք ուղղակիորեն կռահել, այս սկզբունքների հիմքում ընկած առանձնահատկությունները պարզելու փորձը կարող է չափազանց դժվար լինել: Առավել եւս, որ այդ լայն սկզբունքները լիովին շոշափելի և բավականաչափ մանրամասն ինչ-որ բանի վերածելու ջանքերը, որոնք կարող են օգտագործվել արհեստական ​​ինտելեկտի համակարգեր ստեղծելու ժամանակ, նույնպես դժվար է կոտրել: Հեշտ է ընդհանուր առմամբ ձեռքով պարզել, թե ինչ են AI-ի էթիկայի կանոնները և ինչպես պետք է դրանք ընդհանուր առմամբ պահպանվեն, մինչդեռ AI կոդավորման մեջ շատ ավելի բարդ իրավիճակ է, որը պետք է լինի իրական ռետինը, որը համապատասխանում է ճանապարհին:

AI-ի էթիկայի սկզբունքները պետք է օգտագործվեն արհեստական ​​ինտելեկտի մշակողների կողմից, ինչպես նաև նրանք, ովքեր կառավարում են AI-ի զարգացման ջանքերը, և նույնիսկ նրանք, ովքեր, ի վերջո, կիրառում և պահպանում են AI համակարգերը: Բոլոր շահագրգիռ կողմերը AI-ի զարգացման և օգտագործման ողջ ցիկլի ընթացքում համարվում են Էթիկական AI-ի հաստատված նորմերին պահպանելու շրջանակում: Սա կարևոր կարևոր կետ է, քանի որ սովորական ենթադրությունն այն է, որ «միայն կոդավորողները» կամ նրանք, ովքեր ծրագրավորում են AI-ն, ենթակա են հավատարիմ մնալու AI-ի էթիկայի հասկացություններին: Ինչպես արդեն նշվեց, AI-ի մշակման և դաշտի մշակման համար անհրաժեշտ է գյուղ, և որի համար ամբողջ գյուղը պետք է տիրապետի և պահպանի AI-ի էթիկայի կանոնները:

Եկեք նաև համոզվենք, որ մենք նույն էջում ենք այսօրվա AI-ի բնույթի վերաբերյալ:

Այսօր չկա որևէ AI, որը զգայուն է: Մենք սա չունենք: Մենք չգիտենք, թե արդյոք հնարավո՞ր է խելացի AI-ն: Ոչ ոք չի կարող տեղին կանխագուշակել, թե արդյոք մենք կհասնենք խելամիտ AI-ին, և ոչ էլ արդյոք զգայական AI-ն ինչ-որ կերպ հրաշքով ինքնաբերաբար կառաջանա հաշվողական ճանաչողական գերնոր աստղի տեսքով (սովորաբար կոչվում է եզակիություն, տե՛ս իմ լուսաբանումը այստեղ. հղումն այստեղ).

AI-ի տեսակը, որի վրա ես կենտրոնանում եմ, բաղկացած է ոչ զգայուն AI-ից, որն այսօր ունենք: Եթե ​​ուզենայինք կատաղի ենթադրություններ անել զգայուն AI, այս քննարկումը կարող է գնալ արմատապես այլ ուղղությամբ: Զգացող AI-ն ենթադրաբար մարդկային որակի կլիներ: Պետք է հաշվի առնել, որ զգայուն AI-ն մարդու ճանաչողական համարժեքն է: Ավելին, քանի որ ոմանք ենթադրում են, որ մենք կարող ենք ունենալ սուպեր-խելացի AI, կարելի է պատկերացնել, որ այդպիսի AI-ն կարող է ավելի խելացի լինել, քան մարդիկ (սուպեր-խելացի AI-ի իմ հետազոտության համար, տես. լուսաբանումն այստեղ).

Եկեք ամեն ինչ ավելի պարզ պահենք և հաշվի առնենք այսօրվա հաշվողական ոչ զգայուն AI-ն:

Գիտակցեք, որ այսօրվա AI-ն ի վիճակի չէ «մտածել» մարդկային մտածողությանը հավասար: Երբ դուք շփվում եք Alexa-ի կամ Siri-ի հետ, խոսակցական կարողությունները կարող են նման լինել մարդկային կարողություններին, բայց իրականությունն այն է, որ այն հաշվողական է և չունի մարդկային ճանաչողություն: AI-ի վերջին դարաշրջանը լայնորեն օգտագործել է մեքենայական ուսուցում (ML) և Deep Learning (DL), որոնք օգտագործում են հաշվողական օրինաչափությունների համընկնումը: Սա հանգեցրել է արհեստական ​​ինտելեկտի համակարգերի, որոնք ունեն մարդու նման հակումների տեսք: Միևնույն ժամանակ, այսօր չկա որևէ արհեստական ​​բանականություն, որն ունի ողջամտության նմանություն և ոչ էլ ունի ուժեղ մարդկային մտածողության ճանաչողական հրաշք:

ML/DL-ը հաշվողական օրինաչափությունների համապատասխանության ձև է: Սովորական մոտեցումն այն է, որ դուք հավաքում եք տվյալներ որոշումներ կայացնելու առաջադրանքի վերաբերյալ: Դուք սնուցում եք տվյալները ML/DL համակարգչային մոդելների մեջ: Այդ մոդելները ձգտում են գտնել մաթեմատիկական օրինաչափություններ: Այդպիսի օրինաչափություններ գտնելուց հետո, եթե գտնվեն, ապա արհեստական ​​ինտելեկտի համակարգը կօգտագործի այդ օրինաչափությունները նոր տվյալների հանդիպելիս: Նոր տվյալների ներկայացումից հետո «հին» կամ պատմական տվյալների վրա հիմնված օրինաչափությունները կիրառվում են ընթացիկ որոշում կայացնելու համար:

Կարծում եմ, դուք կարող եք կռահել, թե ուր է սա գնում: Եթե ​​մարդիկ, ովքեր որոշումներ են կայացնում, իրենց մեջ ներդնում են անբարենպաստ կողմնակալություն, ապա հավանականությունն այն է, որ տվյալներն արտացոլում են դա նուրբ, բայց նշանակալի ձևերով: Մեքենայի ուսուցումը կամ խորը ուսուցման հաշվողական օրինաչափությունների համընկնումը պարզապես կփորձի համապատասխանաբար մաթեմատիկորեն նմանակել տվյալները: Առողջ դատողության կամ AI-ի կողմից ստեղծված մոդելավորման այլ զգալի ասպեկտներ ինքնին չկա:

Ավելին, AI մշակողները նույնպես կարող են չհասկանալ, թե ինչ է կատարվում: ML/DL-ի գաղտնի մաթեմատիկան կարող է դժվարացնել այժմ թաքնված կողմնակալությունների բացահայտումը: Դուք իրավամբ հույս կունենաք և ակնկալում եք, որ AI մշակողները կփորձարկեն պոտենցիալ թաղված կողմնակալության համար, թեև դա ավելի բարդ է, քան կարող է թվալ: Մեծ հավանականություն կա, որ նույնիսկ համեմատաբար լայնածավալ փորձարկումների դեպքում, ML/DL-ի օրինաչափությունների համապատասխանող մոդելներում դեռևս առկա կլինեն կողմնակալություններ:

Դուք կարող եք ինչ-որ չափով օգտագործել աղբի մեջ աղբի դուրս գալու հայտնի կամ տխրահռչակ ասացվածքը: Բանն այն է, որ սա ավելի շատ նման է կողմնակալություններին, որոնք նենգորեն ներարկվում են որպես AI-ի մեջ ընկղմված կողմնակալություններ: AI-ի որոշումների կայացման ալգորիթմը (ADM) աքսիոմատիկորեն ծանրաբեռնված է անհավասարություններով:

Ոչ լավ.

Եկեք վերադառնանք մեր ուշադրության կենտրոնում գտնվող AI համակարգերին, որոնք օգտագործվում են անպատշաճ կամ, հնարավոր է, բացահայտ ապօրինի նպատակներով, և ինչպես դա վերաբերում է CCP-ի հավատարմության վերաբերյալ վերջերս հրապարակված ուսումնասիրությանը:

Երկու հիմնական նկատառում է գալիս մտքում.

1) AI-ի այս օրինակը AI-ի անհանգստացնող կիրառման ավելի մեծ շարունակական օրինաչափության մի մասն է և, հետևաբար, չարագուշակ և աչքաբաց, թե ինչ է տեղի ունենում:

2) կատվին կարելի է բաց թողնել պայուսակից այնպես, որ եթե նման AI-ն ընդունվի մեկ երկրում, այն հեշտությամբ տարածվի նաև այլ երկրներում:

Սկսեք առաջին կետից այն մասին, որ AI-ի այս օրինակը շարունակական օրինաչափության մաս է:

Այս մեկ կոնկրետ ուսումնասիրությունից հատկապես անհանգստանալու կարևոր հիմքերից մեկն այն է, որ այն ավելի մեծ օրինաչափության մի մասն է, թե ինչպես է AI-ն նպատակադրվում օգտագործել որոշների կողմից: Եթե ​​սա երբևէ իրականացված միակ նման ուսումնասիրությունը լիներ, դա մեզ կարող էր թեթևակի հուզել: Այնուամենայնիվ, դա հավանաբար չի արձագանքի այնպիսի եռանդով, ինչպիսին մենք այժմ տեսնում ենք:

Սա, հավանաբար, կաթիլ-կաթիլ է մի մատնաչափ երկայնքով դեպի մի բան, որը դուրս է գալու վերահսկողությունից:

Ինչպես նշվում է լուրերում, Չինաստանը հայտնի է նրանով, որ պնդել է բացահայտ հավատարմությունը ՔԿԿ-ին: Ավելին, տարբեր միջոցներ են ստեղծվել կամ հաստատվում են՝ ապահովելու, որ մարդիկ ներարկվեն կառավարական դոկտրինին: Նշվել են նախկինում կատարված ուսումնասիրությունների դեպքեր, որոնք փորձում էին մշակել AI ալգորիթմներ, որոնք կարող էին չափել կուսակցության անդամների մտքի պայմանները (տես Չինաստանի կողմից աջակցվող Ուսումնասիրության ժամանակներ 2019-ին, որը նշեց այս ջանքերը):

Դուք կարող եք հիշել, որ 2018 թվականին փոխնախագահ Մայք Փենսը ելույթ ունեցավ Հադսոնի ինստիտուտում և ընդգծեց, որ «Չինաստանի կառավարիչները նպատակ ունեն ներդնել օրուելյան համակարգ, որը հիմնված է վերահսկելու մարդկային կյանքի գրեթե բոլոր ոլորտները» (սա հղում էր ՔԿԿ-ի իրականացմանը սոցիալական վարկերի գնահատման համակարգ, ակնառու հակասությունների թեմա): Դուք կարող եք հեշտությամբ պնդել, որ CCP-ի այս վերջին ուսումնասիրությունը ևս մեկ քայլ է այդ ուղղությամբ:

Մենք չգիտենք, թե երբ կամ վերջին կաթիլը կկոտրի ուղտի մեջքը, այնպես, որ այս միանվագ ուսումնասիրությունները վերածվեն արհեստական ​​ինտելեկտի վրա հիմնված լայնածավալ մոնիտորինգի համակարգերի:

Երկրորդ կետը, որն արժանի է ուշադրության, այն է, որ մենք չենք կարող ենթադրել, որ այս տեսակի AI-ն կսահմանափակվի միայն Չինաստանով: Ըստ էության, թեև Չինաստանում արհեստական ​​ինտելեկտի այս տեսակի օգտագործումը, որը կարող է լայն տարածում ունենալ, ինքնին անհանգստացնող է, մյուս երկրները կարող են նույն կերպ վարվել:

Երբ ասվում է, որ դրա համար արհեստական ​​ինտելեկտը պատրաստ է հիմնական ժամանակին, ամենայն հավանականությամբ, շատ բան չի պահանջվի, որպեսզի մյուս երկրները որոշեն, որ իրենք նույնպես ցանկանում են այն իրականացնել: Կատուն պայուսակից դուրս կլինի: Որոշ երկրներ, ենթադրաբար, կօգտագործեն այս արհեստական ​​ինտելեկտը բացահայտ ճնշող ձևերով և չեն փորձի դրա մասին որևէ հավակնություն ներկայացնել: Մյուս երկրները կարող են թվացյալ ձգտել օգտագործել այս տեսակի արհեստական ​​ինտելեկտը շահավետ նպատակների համար, որոնցից, ի վերջո, կա մի բացասական կողմ, որը գրեթե անխուսափելի կլինի:

Իրականում, ենթադրել, որ AI-ի այս տեսակը, հավանաբար, կընդունվի միայն այն ժամանակ, երբ այն պատրաստ է դիտվել որպես հիմնական ժամանակի համար, մի փոքր սխալ բառ է: Հնարավոր է, որ մի փոքր տարբերություն չլինի, թե արդյոք AI-ն կարող է վստահորեն աշխատել այս ձևով: AI-ն կարող է օգտագործվել որպես շապիկ, տե՛ս իմ բացատրությունը այստեղ հղումն այստեղ. Անկախ նրանից, թե իրականում ինչ կարող է իրականացնել AI-ն, հասկացությունն այն է, որ AI-ն կարող է հարմար հավակնություն լինել բնակչության մոնիտորինգի և իշխանությունների նկատմամբ բացարձակ հավատարմության ապահովման սխեմաների առաջխաղացման համար:

Այս ծանրակշիռ քննարկման այս պահին ես գրազ կգամ, որ դուք ցանկանում եք որոշ պատկերավոր օրինակներ, որոնք կարող են ցուցադրել այս թեման: Կա հատուկ և վստահաբար սիրված օրինակների հավաքածու, որն ինձ հոգեհարազատ է: Տեսեք, որպես AI-ի փորձագետ, ներառյալ էթիկական և իրավական հետևանքները, ինձ հաճախ խնդրում են բացահայտել իրատեսական օրինակներ, որոնք ցույց են տալիս արհեստական ​​ինտելեկտի էթիկայի երկընտրանքները, որպեսզի թեմայի տեսական բնույթն ավելի հեշտությամբ ընկալվի: Ամենաոգեշնչող ոլորտներից մեկը, որը վառ կերպով ներկայացնում է այս էթիկական AI-ի խնդիրը, արհեստական ​​ինտելեկտի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելն է: Սա կծառայի որպես հարմար օգտագործման դեպք կամ օրինակ՝ թեմայի շուրջ լայն քննարկման համար:

Ահա մի ուշագրավ հարց, որի մասին արժե մտածել. Արդյո՞ք արհեստական ​​ինտելեկտի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելը որևէ բան լուսաբանում է արհեստական ​​ինտելեկտի չարաշահումների մասին, և եթե այո, ի՞նչ է սա ցույց տալիս:

Թույլ տվեք մի պահ բացել հարցը:

Նախ, նշեք, որ իրական ինքնակառավարվող մեքենայի մեջ մարդ վարորդ չկա: Հիշեք, որ իսկական ինքնակառավարվող մեքենաները վարում են AI վարորդական համակարգի միջոցով: Ղեկին մարդ վարորդի կարիք չկա, մեքենան վարելու համար մարդ չկա: Ինքնավար տրանսպորտային միջոցների (ԱՎ) և հատկապես ինքնակառավարվող մեքենաների իմ լայնածավալ և շարունակական լուսաբանման համար տե՛ս. հղումն այստեղ.

Ես կցանկանայի ավելի պարզաբանել, թե ինչ է նշանակում, երբ ես վերաբերում եմ իրական ինքնակառավարվող մեքենաներին:

Հասկանալով ինքնակառավարվող մեքենաների մակարդակները

Որպես պարզաբանում, իսկական ինքնակառավարվող մեքենաներն այն մեքենաներն են, որտեղ AI-ն ամբողջությամբ ինքնուրույն է վարում մեքենան, և վարորդական առաջադրանքի ընթացքում մարդկային օգնություն չի ցուցաբերվում:

Այս առանց վարորդի տրանսպորտային միջոցները համարվում են 4-րդ և 5-րդ մակարդակներ (տե՛ս իմ բացատրությունը այս հղումը Մականուն), մինչդեռ մեքենան, որը մարդկային վարորդից պահանջում է համատեղ ջանքեր գործադրել, սովորաբար դիտարկվում է 2-րդ կամ 3-րդ մակարդակում: Մեքենաները, որոնք համատեղ կատարում են վարորդական առաջադրանքը, նկարագրվում են որպես կիսաինքնավար և սովորաբար պարունակում են մի շարք մեքենաներ: ավտոմատացված հավելումներ, որոնք կոչվում են ADAS (Վարորդների օգնության առաջադեմ համակարգեր):

5-րդ մակարդակում դեռ իրական ինքնակառավարվող մեքենա չկա, և մենք դեռ չգիտենք, թե արդյոք դա հնարավոր կլինի հասնել, և որքան ժամանակ կպահանջվի այնտեղ հասնելու համար:

Միևնույն ժամանակ, 4-րդ մակարդակի ջանքերը աստիճանաբար փորձում են որոշակի ձգողականություն ձեռք բերել՝ անցնելով շատ նեղ և ընտրովի հանրային ճանապարհային փորձարկումներ, թեև հակասություններ կան այն հարցի շուրջ, թե արդյոք այս թեստավորումն ինքնին պետք է թույլատրվի (մենք բոլորս փորձի մեջ կյանքի կամ մահվան ծովախոզուկներ ենք: ոմանք պնդում են, որ տեղի է ունենում մեր մայրուղիներում և ճանապարհների վրա, տես իմ լուսաբանումը այս հղումը Մականուն).

Քանի որ կիսաավտոմեքենաները մարդկային վարորդ են պահանջում, այդպիսի մեքենաների ընդունումը չի տարբերվի սովորական տրանսպորտային միջոցներից վարվելուց, հետևաբար, այս թեմայի շուրջ դրանց մասին ծածկելու համար ամենևին էլ նոր բան չկա (չնայած, ինչպես կտեսնեք մի ակնթարթում ընդհանուր առմամբ կիրառվում են հաջորդ կետերը):

Կիսաանվտանգ ավտոմեքենաների համար կարևոր է, որ հասարակությունը պետք է նախազգուշացվի վերջին շրջանում ի հայտ եկած անհանգստացնող կողմի մասին, մասնավորապես այն, որ չնայած այն մարդկային վարորդներին, ովքեր շարունակում են փակցնել իրենց տեսահոլովակները իրենց մասին, քնում են «Level 2» կամ «Level 3» մեքենայի ղեկին: , մենք բոլորս պետք է խուսափենք ապակողմնորոշվելուց `հավատալով, որ վարորդը կարող է իրենց ուշադրությունը հանել վարորդական առաջադրանքից` կիսաավտոմեքենան վարելիս:

Դուք պատասխանատու կողմն եք տրանսպորտային միջոցի վարման գործողությունների համար, անկախ նրանից, թե որ ավտոմատացումը կարող է տեղափոխվել 2-րդ մակարդակի կամ 3-րդ մակարդակի:

Ինքնավար մեքենաներ և արհեստական ​​ինտելեկտի չարաշահում

4-րդ և 5-րդ մակարդակների իսկական ինքնագնաց տրանսպորտային միջոցների համար վարորդական գործին չի մասնակցի մարդկային վարորդ:

Բոլոր գրավյալները ուղևորներ են լինելու:

AI- ն վարում է վարումը:

Անմիջապես քննարկելու մի ասպեկտ ենթադրում է այն փաստը, որ այսօր AI- ի վարման համակարգերում ներգրավված AI- ն զգայուն չէ: Այլ կերպ ասած, AI- ն ընդհանուր առմամբ համակարգչային ծրագրավորման և ալգորիթմների հավաքածու է, և, անկասկած, ի վիճակի չէ տրամաբանել այնպես, ինչպես մարդիկ կարող են:

Ինչու՞ է այս հավելյալ շեշտադրումը արհեստական ​​ինտելեկտի մասին զգացմունքային չէ:

Քանի որ ես ուզում եմ ընդգծել, որ երբ քննարկում եմ AI շարժիչ համակարգի դերը, ես մարդկային որակներ չեմ վերագրում AI- ին: Խնդրում ենք տեղյակ լինել, որ այս օրերին շարունակական և վտանգավոր միտում կա AI- ն մարդաբանելու համար: Ըստ էության, մարդիկ մարդկային նման զգացողություն են հատկացնում այսօրվա AI- ին, չնայած անհերքելի և անառարկելի փաստին, որ այդպիսի AI դեռ գոյություն չունի:

Այդ պարզաբանմամբ դուք կարող եք պատկերացնել, որ AI վարելու համակարգը բնիկ ինչ-որ կերպ «չի իմանա» վարման կողմերի մասին: Վարորդությունն ու դրա հետևանքները պետք է ծրագրավորվեն որպես ինքնակառավարվող մեքենայի սարքավորումների և ծրագրակազմի մաս:

Եկեք սուզվենք այն անհամար ասպեկտների մեջ, որոնք սկսում են խաղալ այս թեմայի շուրջ:

Նախ, կարևոր է գիտակցել, որ ոչ բոլոր ինքնակառավարվող AI մեքենաները նույնն են: Յուրաքանչյուր ավտոարտադրող և ինքնակառավարվող տեխնոլոգիական ընկերություն իր մոտեցումն է ցուցաբերում ինքնակառավարվող մեքենաների ստեղծման հարցում: Որպես այդպիսին, դժվար է լայնածավալ հայտարարություններ անել այն մասին, թե ինչ կանեն կամ չեն անեն AI վարորդական համակարգերը:

Ավելին, ամեն անգամ, երբ նշվում է, որ արհեստական ​​ինտելեկտի կառավարման համակարգը որոշակի բան չի անում, դա հետագայում կարող է շրջանցվել այն մշակողների կողմից, որոնք իրականում ծրագրավորում են համակարգիչը հենց դա անելու համար: Քայլ առ քայլ, արհեստական ​​ինտելեկտի շարժիչ համակարգերը աստիճանաբար բարելավվում և ընդլայնվում են: Այսօր գոյություն ունեցող սահմանափակումն այլևս գոյություն չի ունենա համակարգի ապագա կրկնության կամ տարբերակի դեպքում:

Հուսով եմ, որ դա բավարար քանակությամբ զգուշացումներ է տալիս՝ հիմքում ընկնելու այն, ինչ ես պատրաստվում եմ պատմել:

Եկեք ուրվագծենք ինքնակառավարվող մեքենայի սցենարը, որը կարող է ազդել AI-ի ուրվագծային կամ սխալ քայլերի վրա:

Ես պատրաստվում եմ ձեզ հետ կիսվել արհեստական ​​ինտելեկտի վրա հիմնված ինքնակառավարվող մեքենաների հետ կապված որոշ հետևանքներով, որոնք կարող են ձեզ սարսռել և անհանգստացնել: Սրանք կողմեր ​​են, որոնք ներկայումս գրեթե ոչ ոք չի քննարկում: Ես բազմիցս բարձրաձայնել եմ այդ հարցերի մասին, թեև բացահայտորեն ընդունում եմ, որ մինչև ինքնակառավարվող մեքենաների լայն տարածում չստանանք, մենք այնքան էլ մեծ ուշադրություն չենք դարձնի, որ հասարակությունը անհանգստանա կամ վրդովվի այն ամենից, ինչ այսօր թվում է զուտ վերացական պատկերացումներով: .

Պատրաստ եք?

Մենք կսկսենք որոշակի հիմք դնելով:

AI-ի վրա հիմնված ինքնակառավարվող մեքենաները կհամալրվեն տեսախցիկներով, խելամտորեն: Սա թույլ է տալիս ինքնակառավարվող մեքենային ստանալ վարորդական տեսարանի տեսապատկերներ: Իր հերթին, AI վարորդական համակարգը, որն աշխատում է ինքնակառավարվող մեքենայի համակարգիչների վրա, նախատեսված է հաշվողականորեն ուսումնասիրելու հավաքված տեսանյութը և պարզելու, թե որտեղ է ճանապարհը, որտեղ են մոտակայքում գտնվող մեքենաները, որտեղ են հետիոտները և այլն: Ես հասկանում եմ, որ ես արտասանում եմ ինքնակառավարվող մեքենաների 101 հիմունքները:

Ինքնավար մեքենայի արտաքին մասում տեղադրված են տեսախցիկներ, որոնք ուղղված են դեպի դուրս: Բացի այդ, մեծ հաշվով, դուք կարող եք ակնկալել, որ մեքենայի վրա կամ ներսում կլինեն տեսախցիկներ, որոնք ուղղված կլինեն դեպի ներս՝ դեպի ինքնակառավարվող մեքենայի սրահ: Ինչու այդպես? Հեշտ է, քանի որ շատ կարևոր կիրառումներ կլինեն ինքնավար մեքենայի ներսում կատարվող իրադարձությունները տեսագրելու համար:

Երբ դուք գնում եք ինքնակառավարվող մեքենայով զբոսանքի, այլևս կարիք չկա վարորդ լինել: Ի՞նչ եք անելու այդ դեպքում, երբ գտնվում եք ինքնակառավարվող մեքենայի մեջ:

Մի բան, որ դուք կարող եք անել, կլինի ուրիշների հետ շփվել տանը կամ գրասենյակում: Ահա, դուք աշխատանքի ճանապարհին եք, որը կասի, որ մեկ ժամ վարեք ինքնակառավարվող մեքենայով, և դուք արդեն կարող եք սկսել ձեր աշխատանքային օրը՝ կատարելով Zoom-ի նման առցանց իրական ժամանակի ինտերակտիվ նիստ: Նրանք կարող են տեսնել ձեզ, քանի որ տեսախցիկները դեպի ներս են ուղղված դեպի ինքնակառավարվող մեքենան: Դուք կարող եք դրանք տեսնել, հավանաբար, ինքնակառավարվող մեքենայի ներսում գտնվող LED էկրանին: Օրվա վերջում, երբ վերադառնում եք տուն, դուք կարող եք նմանատիպ ինտերակտիվ վիդեո քննարկում անել ձեր երեխաների հետ, երբ նրանք սկսում են կատարել իրենց տնային աշխատանքը երեկոյան համար:

Մեկ այլ օգտագործումը կլինի դասերին մասնակցելու համար: Այժմ, երբ ձեզ հարկավոր չէ վատնել ձեր ժամանակը մեքենա վարելու համար, դուք կարող եք ինքնակառավարվող մեքենայի ներսում այդ մեռյալ ժամանակը վերածել ձեր հմտությունները բարելավելու կամ վկայական կամ աստիճան ստանալու: Դեպի ներս ուղղված տեսախցիկների միջոցով ձեր հրահանգիչը կարող է տեսնել ձեզ և քննարկել, թե ինչպես է ընթանում ձեր մարզումը:

Մեկ այլ կիրառություն կարող է լինել փորձել և ապահովել, որ ինքնակառավարվող մեքենաներով հեծանվորդները չխանգարեն: Մարդկանց ղեկավարած մեքենայում վարորդը չափահաս ներկայություն է, որը սովորաբար հետ է պահում հեծանվորդներին խելագար բաներ անելուց, օրինակ՝ ինտերիերը գրաֆիտիով նշելու: Ի՞նչ կլինի AI-ի վրա հիմնված ինքնակառավարվող մեքենաների հետ: Ոմանք անհանգստանում են, որ հեծանվորդները կնախընտրեն պատռել մեքենաների ինտերիերը: Սա փորձելու և կանխելու համար ավտոմոբիլները տեղակայող ընկերությունն, ամենայն հավանականությամբ, կօգտագործի դեպի ներս ուղղված տեսախցիկներ՝ վերահսկելու, թե ինչ են անում մարդիկ, երբ գտնվում են ինքնավար մեքենայում:

Ենթադրում եմ, որ դուք համոզված եք, որ մենք ունենալու ենք տեսախցիկներ, որոնք ուղղորդում են դեպի ինքնակառավարվող մեքենաների ինտերիերը, ի լրումն այն տեսախցիկների, որոնք ուղղված են դեպի դուրս՝ մեքենա վարելու տեսարանը նկատելու համար:

Դուք այժմ պատրաստ եք այն, ինչ ես անվանել եմ շրջող աչք, տես իմ վերլուծությունը հղումն այստեղ.

Նախ, հաշվի առեք տեսախցիկները, որոնք ուղղված են դեպի դուրս:

Ուր էլ որ գնա ինքնակառավարվող մեքենան, այն հնարավոր կլինի տեսագրել այն ամենը, ինչ տեսախցիկները տեսնեն: Ինքնավար մեքենան, որը ինչ-որ մեկին դուրս է բերում իրենց տնից և տանում մթերային խանութ, կանցնի մի թաղամաս, և տեսանյութը կգրանցի ոչ միայն ճանապարհի ճանապարհը, այլև այն ամենը, ինչ տեղի է ունենում տեսողության շրջանակում: Հայր ու որդի խաղում են իրենց բակում. Ընտանիք, որը նստած է իր առջևի պատշգամբում: Անընդհատ շարունակվում է:

Հենց այս պահին մենք այնքան քիչ ինքնակառավարվող մեքենաներ ունենք հանրային ճանապարհներին, որ առօրյա գործողությունները տեսագրելու այս հնարավորությունը համեմատաբար քիչ է և աննշան:

Պատկերացրեք, որ մենք ի վերջո հասնենք անվտանգ և համատարած ինքնակառավարվող մեքենաների: Նրանցից հազարավոր: Միգուցե միլիոններ: Այսօր ԱՄՆ-ում ունենք մոտ 250 միլիոն մարդատար ավտոմեքենա: Ի վերջո, դրանք գրեթե կփոխարինվեն ինքնակառավարվող մեքենաներով կամ պարզապես այլևս չեն օգտագործվի, և մենք հիմնականում կունենանք ինքնակառավարվող մեքենաներ մեր ճանապարհներին: Այդ ինքնակառավարվող մեքենաները վարում են արհեստական ​​ինտելեկտը և որպես այդպիսին կարող են հիմնականում ռոումինգում լինել 24×7: Ոչ հանգստի ընդմիջում, ոչ լոգարանի ընդմիջում:

Տեսանյութի տվյալները կարող են վերբեռնվել այս ինքնակառավարվող մեքենաներից OTA (Over-The-Air) էլեկտրոնային ցանցային միացումների միջոցով: Ինքնավար մեքենաները կօգտագործեն OTA՝ մեքենայում ներբեռնված AI ծրագրային ապահովման վերջին թարմացումները ստանալու համար: Բացի այդ, OTA-ն կարող է օգտագործվել ինքնակառավարվող մեքենայից տվյալները ամպի վրա հիմնված տվյալների բազա վերբեռնելու համար:

Ամեն դեպքում, հնարավոր կլինի միավորել այս վերբեռնված տվյալները: Կարի միջոցով դուք կարող եք պոտենցիալ միավորել յուրաքանչյուրի ամենօրյա մուտքերն ու ելքերը, ով ցանկացած օր դուրս է եկել փողոց, ցանկացած վայրում, որտեղ լայնորեն օգտագործվում են ինքնակառավարվող մեքենաներ:

Դա այն պտտվող աչքն է, որի մասին ես զգուշացրել եմ։

Այժմ մենք կարող ենք համախմբել CCP-ի ուսումնասիրությունը այս տեսակի կարողությունների մեջ: Ենթադրենք, կառավարությունն ունի այս բոլոր հավաքագրված տեսանյութերի հասանելիությունը: Այնուհետև նրանք կարող են օգտագործել դեմքի ճանաչման AI-ի վրա հիմնված ալգորիթմ՝ պարզելու, թե ուր եք գնացել, օրվա որ ժամին, ձեր ամենօրյա ճամփորդությունների ընթացքում: Բացի այդ, նրանք ենթադրաբար կարող էին օգտագործել իրենց «հավատարմության» AI-ի վրա հիմնված անալիզատորը, որպեսզի տեսնեն՝ թվում է, թե դուք հավատարիմ տեսք ունեք ձեր դեմքին, թե ոչ:

Պարզապես պատկերացրեք, որ երեքշաբթի կեսօրին դուք քայլում էիք՝ տեղական ճաշարանից սենդվիչ ստանալու համար: Ճանապարհին ինքնակառավարվող մեքենաներ էին անցնում. Բազմաթիվ տեսանյութերից բոլորը գրավել են ձեզ, երբ դուք հինգ րոպեանոց քայլում էիք՝ ուտելու համար: Տվյալները վերբեռնվել են կենտրոնացված տվյալների բազա: Կառավարությունն իրականացրել է դեմքերի ճանաչման արհեստական ​​ինտելեկտի իր ծրագիրը տվյալների հիման վրա:

Պարզվում է, որ արհեստական ​​ինտելեկտը «որոշել է», որ ձեր դեմքին անհավատարիմ տեսք ուներ։

Գուցե այս անհավատարիմ հայացքը միայն մի ակնթարթ է պատահել։ Փողոցի մի անկյունում սպասում էիր, որ լույսը փոխվի, որպեսզի կարողանաս փողոցն անցնել դեպի ճաշարան: Այդ պահին դու մի փոքր զզվանքի ցնցում ունեիր, որ ստիպված էիր չափազանց երկար սպասել Walk խորհրդանիշին: Արդյո՞ք սա վկայում էր իշխանության հանդեպ ձեր անհավատարմության մասին:

Այո, AI-ն, հաշվարկված հաշվարկով, ժամանակի ընթացքում առատորեն անհավատարիմ էիր: Երբ այդ գիշեր տուն եք հասնում, կառավարությունը կազմակերպել է ձեր ձերբակալությունը:

Բայց սպասեք, կա ավելին:

Հիշեք, որ տեսախցիկները նույնպես ուղղված են դեպի ներս:

Նույն երեքշաբթի օրը, երբ դուք ինքնակառավարվող մեքենայով գնում էիք աշխատանքի, տեսախցիկները ֆիքսում էին ձեր ամեն պահը: Սա վերբեռնվել է կենտրոնացված տվյալների բազա: Ինտելեկտուալ ծրագրաշարը, որը վերլուծում է դեմքի օրինաչափությունները անհավատարմության համար, կատարել է ձեր դեմքի արտահայտությունների հաշվողական օրինաչափության ուսումնասիրություն գրասենյակ ճանապարհորդության ժամանակ:

Ինչ-որ պահի, դուք պատահաբար նայում էիք ինքնավար մեքենայից դուրս և նկատեցիք շինարարության աշխատողին, որը մասամբ փակում էր ճանապարհը և ստիպեց AI-ի վարման համակարգը դանդաղեցնել ինքնակառավարվող մեքենան: Մի վայրկյանի ընթացքում ձեր դեմքը ծաղրի տեսք արձանագրեց այս շինարարական աշխատողի նկատմամբ, որը դանդաղեցնում է երթևեկությունը:

Արհեստական ​​ինտելեկտի դեմքի օրինաչափության վերլուծությունը սա մեկնաբանեց որպես կառավարության հանդեպ անհավատարմության նշան:

Երկու հարված ձեր դեմ մեկ օրում։

Դուք ապրում եք բարակ սառույցի վրա:

Իհարկե, արդյոք AI-ն «ճիշտ» է, թե «սխալ»՝ ձեր հավատարմությունը որոշելու հարցում գրեթե անհետևանք է այս համատեքստում: Էությունը այն է, որ AI-ն ստեղծվել է այդ նպատակով: Մարդկանց, ովքեր տեղակայում են AI-ն, կարող են հետաքրքրվել, թե կարող են չհետաքրքրվել, թե արդյոք AI-ն հարմար է այս տեսակի առաջադրանքների համար: AI-ն թույլ է տալիս կառավարական վերահսկողություն իրականացնել՝ անկախ բուն տեխնոլոգիական վավերականությունից:

Դա ծածկում է դեմքի սկանավորումը:

Եթե ​​մենք, ի վերջո, ունենանք ցանկացած տեսակի շարժական ծախսարդյունավետ սարք՝ ուղեղի ալիքների (ենթադրյալ) սկանավորում կատարելու համար, դա, իհարկե, կարող է ներառվել նաև ինքնակառավարվող մեքենաների մեջ: Տեսախցիկներն այժմ վստահ են: Այս տրամաչափի ուղեղային ալիքների սկանավորման սարքեր ունենալու հնարավորությունը ներկայումս բացակայում է, բայց ակնհայտորեն այն է, որ ենթադրվում է ապագայի համար:

Իմ ուսումնասիրության համար, թե ինչպես կառավարությունը կարող է փորձել տիրել բնակչությանը՝ գրավելով ինքնակառավարվող մեքենաների վերահսկողությունը, տե՛ս. հղումն այստեղ. Նմանատիպ հնարավորություն կա, որ չարամիտ դերասանը կարող է փորձել անել նույնը, տես հղումն այստեղ. Սրանք կոչված չեն վախեցնելու մարտավարություն՝ կապված այդ թեմաների լուսաբանման համար, և փոխարենը՝ կիբերանվտանգության կարևորության և այլ նախազգուշական միջոցների մասին նախազգուշացումներ, որոնք մենք որպես հասարակություն պետք է ձգտենք ձեռնարկել ամենուր տարածված ինքնակառավարվող մեքենաների և մեքենաների առաջացման վերաբերյալ: այլ ինքնավար մեքենաներ:

Եզրափակում

Ես կցանկանայի արագորեն լուսաբանել մեկ լրացուցիչ ասպեկտ այն մասին, որ AI-ն օգտագործվում է հավատարմությունը պարզելու համար, որը, իմ կարծիքով, փոքր-ինչ առանձին թեմա է, բայց այն, ինչի մասին որոշ թվիթներ և սոցիալական մեդիաներ են քննարկում:

Ես ավելի վաղ նշել էի, որ մենք չունենք զգայուն AI, և մենք չգիտենք, թե երբ և երբ կունենանք: Եկեք զվարճացնենք այն գաղափարը, որ մենք կունենանք զգայուն AI: Այդ դեպքում դիտարկեք հետևյալ սցենարը.

Մենք ոչ զգայուն AI-ի միջոցով նախընտրում ենք կիրառել AI-ի լայն տարածում, որը հաշվարկում է, թե արդյոք մարդիկ հավատարիմ են իրենց կառավարությանը, օգտագործելով դեմքի սկանավորում, ուղեղի ալիքների սկանավորում և այլն: Սա ամբողջությամբ կառավարվում և օգտագործվում է հեղինակավոր մարդկանց կողմից: Դա այն անհանգստացնող սցենարն է, որը ես քիչ առաջ նկարագրել էի:

Ժամանակն է բարձրացնել նախօրոք:

AI-ն դառնում է զգայուն: Մենք այժմ պոտենցիալ այս զգայուն AI-ին ենք փոխանցել մարդկանց հավատարմությունն ու անհավատարմությունը ենթադրաբար նույնականացնելու լայն հնարավորություն: Չարագործ արհեստական ​​ինտելեկտը, որը մտածում է մարդկանց ոչնչացնելու մասին, կարող է օգտագործել այս հնարավորությունը՝ որոշելու, որ մարդիկ իսկապես անհավատարիմ են լինելու և պետք է ամբողջությամբ ոչնչացվեն: Կամ գուցե հենց այն մարդիկ, ովքեր իրենց դեմքով կամ մտքերով ցույց են տալիս անհավատարմության նշան, պետք է հատկապես ջնջվեն:

Մեկ այլ տեսանկյուն այն է, որ AI-ն ցանկանում է ստրկացնել մարդկանց, տես իմ քննարկումը հղումն այստեղ.

Կարծես թե մենք AI-ին կատարյալ նվեր ենք տվել այդ որոնումն իրականացնելու համար: Գոյություն ունեցող ենթակառուցվածքը, որը մենք տեղադրել ենք, թույլ է տալիս AI-ին ուշադիր հետևել մեզ՝ մարդկանց: Նրանք, ովքեր կարծես թե անհավատարիմ դեմք են արտահայտել կամ մտածել արհեստական ​​ինտելեկտի տիրակալ(ների) մասին, զգալու են AI-ի զայրույթը:

Ես հասկանում եմ, որ ես ասել եմ, որ սա անտի վերելք է: Ես վստահ չեմ, որ դա այդպես է: Ինձ թվում է, թե արդյոք մենք ունենք AI-ի տիրակալներ, որոնք ուղղակիորեն որոշում են մեր ճակատագիրը ընդդեմ մարդկային տիրակալների, ամենայն հավանականությամբ, օգտագործում են AI համակարգ՝ հավատարմությունը որոշելու համար, լավ, ոչ մի առաջարկ էլ առանձնապես ցանկալի չի թվում:

Վերջնական մեկնաբանություն առայժմ։

Հռոմեացի գիտնական և փիլիսոփա Մարկուս Տուլիուս Ցիցերոնը հայտարարել է, որ չկա ավելի ազնիվ, ավելի հարգելի բան, քան հավատարմությունը: Մենք կարող ենք թույլ տալ, որ AI-ն մեզնից առաջ ընկնի և դառնա գործիք՝ սարսափելի միջոցներով ներգրավվելու և «հավատարմություն» ապահովելու համար:

Արհեստական ​​ինտելեկտի էթիկան մեր անելիքների ցանկի վերևում դնելու արժանի խելամիտ պատճառ:

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- ատեստավորում-որ-կարող-նախագուշակել-ճնշող-ինքնավար-համակարգեր/