AI-ի էթիկան և AI-ի ինքնագիտակցության որոնումները

Ինքնագիտակա՞կ եք։

Գրազ կգամ, որ դու հավատում ես, որ դու ես:

Բանն այն է, որ, իբր, մեզանից քչերն են առանձնապես գիտակցում: Գոյություն ունի ինքնագիտակցության մի տիրույթ կամ աստիճան, և մենք բոլորս, իբր, տարբերվում ենք նրանով, թե որքան խորաթափանց ենք մենք ինքնագիտակից: Դուք կարող եք մտածել, որ լիովին գիտակցում եք ինքնազգացողությունը և միայն թեթևակի: Դուք կարող եք փոքր-ինչ ինքնագիտակից լինել և գիտակցել, որ դա ձեր հոգեկան վիճակն է:

Միևնույն ժամանակ, սպեկտրի ամենավերին մասում դուք կարող եք հավատալ, որ լիովին գիտակցում եք ինքնազգացողությունը և իսկապես, անկեղծ ասած, նույնքան ինքնագիտակ եք, որքան նրանք: Լավ է քեզ համար.

Ինչի՞ մասին է խոսքը, ի՞նչ օգուտ է տալիս չափազանց ինքնագիտակ լինելը:

Համաձայն հետազոտության, որը հրապարակվել է Մանրամասն Սայլակ (HBR) Տաշա Էուրիխի կողմից, դուք, ըստ տեղեկությունների, կարող եք ավելի լավ որոշումներ կայացնել, ավելի վստահ եք ձեր որոշումներում, ավելի ուժեղ եք ձեր հաղորդակցման կարողություններում և ընդհանուր առմամբ ավելի արդյունավետ («Ինչ է իրականում ինքնագիտակցությունը (և ինչպես) վերնագրված հոդվածում «Բոնուսային գործոնն այն է, որ նրանք, ովքեր ուժեղ ինքնագիտակցում ունեն, ավելի քիչ են հակված խաբելու, գողանալու կամ ստելուն: Այդ առումով, սրիկա կամ ստահակ լինելուց խուսափելու երկու տարբերակ կա, ինչպես նաև. ձգտելով լինել ավելի լավ մարդ և զարդարել ձեր ընկերակիցներին:

Ինքնագիտակցության մասին այս ամբողջ խոսակցությունը որոշակիորեն ակնհայտ հարց է առաջ բերում, այն է, թե իրականում ինչ է նշանակում ինքնագիտակցություն արտահայտությունը: Դուք կարող եք հեշտությամբ գտնել բազմաթիվ տարբեր սահմանումներ և մեկնաբանություններ համալիրի և, ասենք, մռայլ կառուցվածքի մասին, որը ենթադրում է ինքնագիտակցում: Ոմանք կպարզեցնեն խնդիրները՝ ենթադրելով, որ ինքնագիտակցությունը բաղկացած է ձեր սեփական անձի մոնիտորինգից, իմանալով, թե ինչով եք զբաղվում: Դուք խորապես գիտակցում եք ձեր սեփական մտքերն ու արարքները:

Ենթադրաբար, երբ մարդը չգիտակցված չլինելով, չի գիտակցի, թե ինչ է անում, ոչ էլ ինչու է այդպես, ինչպես նաև չի գիտակցի, թե ուրիշներն ինչ են ասում իրենց մասին: Համոզված եմ, որ դուք հանդիպել եք նման մարդկանց:

Որոշ մարդիկ, կարծես, քայլում են այս երկրով, առանց պատկերացնելու, թե իրենք ինչ են անում, և ոչ էլ նմանություն ունեն, թե ինչ են ասում ուրիշներն իրենց մասին: Կարծում եմ, դուք կարող եք պնդել, որ նրանք նման են ցուլի, որը գլխովին լիցքավորվում է նուրբ կոտրվող ապրանքների բուտիկի մեջ: Մենք սովորաբար հակված ենք հավատալու, որ ցուլը չգիտի, թե ինչ է անում և անտեսում է ուրիշների տեսակետները, քանի դեռ նրանք չեն փորձում ֆիզիկապես մանևրել կամ կործանել անգիտակից արարածին:

Ասում են, որ ինքնագիտակցությունը կարող է որոշակիորեն ռեկուրսիվ լինել:

Թույլ տվեք ուրվագծել մի օրինակ՝ այս ռեկուրսիան լուսաբանելու համար: Դուք ձեր սմարթֆոնով բավականին կլանող կատվի տեսահոլովակ եք դիտում (կարծես թե դա անում են բոլորը): Որոշ մարդիկ այլ ակնհայտ մտքեր չեն ունենա, քան այդ սիրելի կատուների հիասքանչ սրտառուչ չարաճճիությունները: Մինչդեռ յուրաքանչյուր ոք, ով ունի փոքր ինքնագիտակցություն, նա տեղյակ է, որ դիտում է կատվի տեսանյութ: Նրանք կարող են նաև տեղյակ լինել, որ իրենց շրջապատում գտնվող մյուսները նշում են, որ նրանք դիտում են կատվի տեսանյութ:

Ուշադրություն դարձրեք, որ դուք կարող եք լինել ինքնագիտակ և դեռևս ընկղմված լինել, ասենք, որոշակի առաջնային գործունեության մեջ: Այս դեպքում առաջնային գործունեությունը կատվի տեսանյութ դիտելն է: Երկրորդ հերթին, և միաժամանակ, դուք կարող եք կրել այն միտքը, որ իրականում դիտում եք կատվի տեսանյութ: Դուք նաև կարող եք կրել այն միտքը, որ ուրիշները դիտում են ձեզ, մինչ դուք դիտում եք կատվի բոլորովին զվարճալի տեսանյութը: Պարտադիր չէ, որ դադարեցնեք մեկ գործողություն, օրինակ՝ դադարեցնեք կատվի տեսանյութը դիտելը, որպեսզի այնուհետև առանձին մտածեք, որ դիտում եք (կամ պարզապես դիտում էիք) կատվի տեսանյութը: Այդ մտքերը կարող են թվացյալ առաջանալ միմյանց հետ զուգահեռ։

Երբեմն, մեր ինքնագիտակցությունը կարող է, սակայն, մեզ դուրս մղել կամ գոնե ընդհատել առաջնային մտավոր գործունեությունը: Հավանաբար, երբ մտածում եք կատվի տեսահոլովակը դիտելու մասին, ձեր միտքը մասամբ շրջվում է, քանի որ չափազանց ձգվում է կենտրոնանալ միայն տեսանյութի վրա: Դուք ընտրում եք այնուհետև ետ շրջել տեսանյութը, որպեսզի վերանայեք այն հատվածը, որը մի տեսակ տեսել եք, բայց որը մտավոր շեղված էիք ամբողջությամբ հասկանալուց: Ինքնագիտակցությունը խանգարեց ձեր առաջնային մտավոր գործունեությունը:

Լավ, մենք այժմ պատրաստ ենք ռեկուրսիվ ասպեկտների առաջացմանը:

Պատրաստ եք?

Դուք դիտում եք կատվի տեսանյութ։ Ձեր ինքնագիտակցությունը տեղեկացնում է ձեզ, որ դուք դիտում եք կատվի տեսահոլովակ, և որ մյուսները դիտում են ձեզ, երբ դուք դիտում եք տեսանյութը: Դա ստատուս քվոն է:

Հաջորդը դուք լրացուցիչ մտավոր թռիչք եք կատարում: Դուք սկսում եք մտածել ձեր ինքնագիտակցության մասին։ Դուք ինքներդ գիտակցում եք, որ ներգրավում եք ձեր ինքնագիտակցությունը: Ահա թե ինչպես է դա տեղի ունենում. Արդյո՞ք ես չափազանց շատ եմ մտածում կատվի տեսահոլովակը դիտելու մասին, դուք հուսահատ հարցնում եք ինքներդ ձեզ: Սա ինքնագիտակցության հերթական շերտն է։ Ինքնագիտակցության դասակարգում այլ ինքնագիտակցության վրա:

Հին ասացվածք կա, որ մինչև վերջ կրիաներ են։ Ինքնագիտակցության երևույթների համար կարող եք լինել.

  • Ինքներդ ձեզանից տեղյակ չէ
  • Ինքնաճանաչում ինքներդ ձեզ
  • Ինքնագիտակցեք ձեր ինքնագիտակցության մասին
  • Ինքնագիտակցեք ձեր լինելու մասին ինքնագիտակցելով ձեր ինքնագիտակցման մասին
  • Ad Infinitum (այսինքն, և այլն)

Դուք, հավանաբար, հասկացել եք, որ ես ավելի վաղ նրբորեն նշում էի, որ թվում է, թե գոյություն ունեն ինքնագիտակցման երկու հիմնական կատեգորիա: Մեկ կոնկրետ տեսություն ենթադրում է, որ մենք ունենք մի տեսակ ներքին ինքնագիտակցություն, որը կենտրոնանում է մեր ներքին վիճակների վրա, և մենք ունենք նաև արտաքին ինքնագիտակցություն, որն օգնում է չափել մեր շուրջը գտնվողների ընկալումները, ովքեր մեզ դիտում են:

Ըստ HBR հոդվածի, ահա տեսականացված երկու տեսակի ինքնագիտակցության արագ նկարագրությունը. «Առաջինը, որը մենք անվանել ենք. ներքին ինքնագիտակցություն, ցույց է տալիս, թե որքան հստակ ենք մենք տեսնում մեր սեփական արժեքները, կրքերը, ձգտումները, համապատասխանում մեր միջավայրին, ռեակցիաներին (ներառյալ մտքերը, զգացմունքները, վարքագիծը, ուժեղ և թույլ կողմերը) և ազդեցությունը ուրիշների վրա»: Իսկ մյուսը. «Երկրորդ կատեգորիա. արտաքին ինքնագիտակցություն, նշանակում է հասկանալ, թե ինչպես են ուրիշները վերաբերվում մեզ՝ վերը թվարկված նույն գործոնների տեսանկյունից: Մեր հետազոտությունը ցույց է տալիս, որ մարդիկ, ովքեր գիտեն, թե ինչպես են ուրիշները տեսնում իրենց, ավելի հմուտ են կարեկցանք դրսևորելու և ուրիշների տեսակետները ընդունելու հարցում»:

Հարմար երկու-երկու մատրիցա կամ չորս քառակուսի կարելի է ստանալ՝ պնդելով, որ և՛ ներքին, և՛ արտաքին ինքնագիտակցությունը տատանվում է բարձրից մինչև ցածր, և դուք կարող եք զուգակցել երկու կատեգորիաները միմյանց դեմ: HBR հետազոտությունը ցույց է տալիս, որ դուք ասում եք, որ դուք ինքնաճանաչման այս չորս արխետիպերից մեկն եք.

  • Ինտրոսպեկտոր՝ ցածր արտաքին ինքնագիտակցություն + բարձր ներքին ինքնագիտակցություն
  • Որոնող՝ ցածր արտաքին ինքնագիտակցություն + ցածր ներքին ինքնագիտակցություն
  • Խնդրում ենք. Բարձր արտաքին ինքնագիտակցություն + ցածր ներքին ինքնագիտակցություն
  • Իրազեկ՝ բարձր արտաքին ինքնագիտակցություն + ներքին բարձր ինքնագիտակցություն

Գագաթնակետը կլինի «Իրազեկ» արխետիպը, որը բաղկացած է լինելու արտաքին ինքնագիտակցման վերին աստիճանում և նույն կերպ՝ ներքուստ ինքնագիտակ լինելու վերևում: Պարզաբանելու համար, որ դուք չեք հասնում այս գովաբանված կեցվածքին պարտադիր մշտական ​​ձևով: Դուք կարող եք հետ ու առաջ սայթաքել բարձր և ցածր լինելու միջև՝ ինչպես ներքին, այնպես էլ արտաքին ինքնագիտակցության ոլորտներում: Դա կարող է կախված լինել օրվա ժամից, իրավիճակից, որում դուք հայտնվել եք և մի շարք այլ կարևոր գործոններից:

Այժմ, երբ մենք բարեհամբույր կերպով լուսաբանել ենք ինքնագիտակցության վերաբերյալ որոշ հիմնարար տարրեր, մենք կարող ենք ձգտել դա կապել էթիկական վարքագծի թեմայի հետ:

Ինքնագիտակ լինելու մասին սովորական պնդումն այն է, որ ավելի հավանական է, որ դուք վերևում լինեք, երբ ինքներդ գիտեք: Սա նշանակում է, ինչպես արդեն նշվեց, դուք ավելի քիչ հակված եք էթիկական անբարենպաստ վարքագծին, ինչպիսիք են գողությունը, խաբելը և ստելը: Այս միտումի հիմնավորումն այն է, որ ձեր ինքնագիտակցության ակտիվությունը ձեզ կստիպի հասկանալ, որ ձեր սեփական վարքագիծը անճոռնի կամ էթիկայից դուրս է: Դուք ոչ միայն բռնում եք ինքներդ ձեզ, երբ շեղվում եք պղտոր, ոչ բարոյական ջրերի մեջ, այլ նաև հակված եք ձեզ հետ շեղվելու և դեպի չոր հող (էթիկական տարածքի սրբություն), կարծես թե:

Ձեր ինքնագիտակցությունն օգնում է ձեզ ինքնատիրապետում ցուցաբերել:

Ենթադրաբար, հակադրությունը կարող է լինել, երբ կա քիչ կամ բացակայում է ինքնագիտակցությունը, ինչը հուշում է, որ ինչ-որ մեկը, հավանաբար, անտեսում է ոչ բարոյական վարքագծի իրենց հակումը: Դուք կարող եք պնդել, որ այդպիսի անտեղյակ մարդը կարող է չհասկանալ, որ նրանք վատ են գործում: Նմանատիպ ցուլին կոտրվող իրերի խանութում, քանի դեռ ինչ-որ բան ավելի բացահայտ գրավում է նրանց ուշադրությունը, նրանք դժվար թե ինքնակարգավորվեն:

Ի դեպ, ոչ բոլորն են դա գնում: Ոմանք կպնդեն, որ ինքնագիտակցությունը կարող է նույնքան հեշտությամբ կիրառվել ոչ էթիկական լինելու համար, որքան էթիկ: Օրինակ՝ չարագործը կարող է լիովին գիտակցել ինքն իրեն և հաճույք է ստանում, որ ինքը սխալ արարք է կատարում։ Նրանց ինքնագիտակցությունը նույնիսկ ավելի սրընթաց մղում է նրանց դեպի ավելի ու ավելի մեծ չարաշահումներ:

Այստեղ ավելի շատ ամպամածություն կա, քան կարող է ուղղակիորեն աչքի ընկնել: Ենթադրենք, ինչ-որ մեկը խորապես գիտակցում է իրեն, բայց նա տեղյակ չէ տվյալ հասարակության կամ մշակույթի էթիկական բարքերին: Այդ կերպ նրանք չունեն որևէ էթիկական ուղեցույց, չնայած հայտարարված փաստին, որ իրենք գիտակցում են: Կամ, եթե կուզեք, գուցե մարդը գիտի էթիկական կանոնների մասին և չի հավատում, որ դրանք վերաբերում են դրանց: Նրանք իրենց համարում են եզակի կամ սովորական էթիկական մտածողության սահմաններից դուրս:

Կլոր ու կլոր գնում է:

Ինքնագիտակցությունը կարող է մեկնաբանվել որպես երկսայրի էթիկայի վրա ուղղված սուր, ոմանք ջերմեռանդորեն կընդգծեն:

Այս պահի դրությամբ, եկեք գնանք երջանիկ դեմքի տարբերակին, որը բաղկացած է ինքնագիտակցումից, մեծամասամբ առաջնորդելով կամ մղելով մեզ դեպի բարոյական վարքագիծը: Մնացած ամեն ինչ հավասար լինելով, մենք կկատարենք կոպիտ ենթադրություն, որ որքան շատ լինի ինքնագիտակցությունը, այնքան ավելի էթիկական թեքված կլինեք: Դա, անշուշտ, հաճելի և ոգեշնչող է թվում դա ցանկանալը:

Եկեք փոխենք արագությունը և պատկերի մեջ բերենք Արհեստական ​​ինտելեկտը (AI):

Մենք գտնվում ենք այս քննարկման փուլում՝ բոլոր ընթացիկ խճճվածությունները կապելու Էթիկական AI-ի զարգացող ոլորտի հետ, որը նաև հայտնի է որպես AI-ի էթիկա: AI էթիկայի իմ շարունակական և լայնածավալ լուսաբանման համար տե՛ս հղումն այստեղ և հղումն այստեղ, պարզապես մի քանի անուն:

Էթիկական AI հասկացությունը ենթադրում է միահյուսում էթիկայի և էթիկական վարքագծի դաշտը մինչև AI-ի գալուստը: Դուք, անշուշտ, տեսել եք վերնագրեր, որոնք ահազանգեր են բարձրացրել արհեստական ​​ինտելեկտի մասին, որը լի է անհավասարություններով և տարբեր կողմնակալություններով: Օրինակ, կան մտավախություններ, որ AI-ի վրա հիմնված դեմքի ճանաչման համակարգերը երբեմն կարող են դրսևորել ռասայական և գենդերային խտրականություն, սովորաբար այն բանի հետևանքով, թե ինչպես են հիմքում ընկած Մեքենայական ուսուցման (ML) և Deep Learning (DL) սարքավորումները վերապատրաստվել և մշակվել (տես իմ վերլուծությունը): ժամը այս հղումը Մականուն).

Փորձել և դադարեցնել կամ գոնե մեղմացնել դեպի սրընթաց սրումը AI For Bad, որը բաղկացած է AI համակարգերից, որոնք կամ ակամա կամ երբեմն դիտավորյալ ձևավորված են վատ գործելու համար, վերջերս հրատապություն է առաջացել կիրառել էթիկայի կանոնները AI-ի մշակման և օգտագործման համար: Լրջագույն նպատակն է էթիկական ուղղորդում տրամադրել AI ծրագրավորողներին, գումարած այն ընկերություններին, որոնք կառուցում կամ կիրառում են AI, և նրանց, ովքեր կախված են AI հավելվածներից: Որպես Էթիկական AI սկզբունքների մշակման և ընդունման օրինակ, տե՛ս իմ լուսաբանումը այստեղ հղումն այստեղ.

Մտածողության պահ տվեք այս երեք կարևորագույն հարցերը քննարկելու համար.

  • Կարո՞ղ ենք արդյոք արհեստական ​​ինտելեկտի մշակողներին ստիպել որդեգրել Արհեստական ​​ինտելեկտի էթիկական սկզբունքները և կիրառել այդ ուղեցույցները իրական օգտագործման մեջ:
  • Կարո՞ղ ենք արդյոք ընկերություններին, որոնք արհեստագործական կամ ոլորտային արհեստական ​​ինտելեկտով զբաղվում են նույն կերպ:
  • Կարո՞ղ ենք արդյոք նրանք, ովքեր օգտագործում են AI-ն, որպեսզի նույն կերպ ճանաչեն էթիկական AI-ի կողմերը:

Ես սա անամոթաբար կասեի, դա բարձր պատվեր է։

Արհեստական ​​ինտելեկտ ստեղծելու հուզմունքը կարող է հաղթահարել արհեստական ​​ինտելեկտի էթիկայի նկատմամբ ուշադրության ցանկացած պատկերացում: Դե, ոչ միայն հուզմունքը, այլև փող աշխատելը նույնպես անբաժանելի է այդ հավասարման մեջ: Դուք կարող եք զարմանալ, երբ իմանաք, որ արհեստական ​​ինտելեկտի ոլորտում ոմանք հակված են ասելու, որ իրենք կզբաղվեն էթիկական AI «նյութերով» այն բանից հետո, երբ նրանք դուրս բերեն իրենց AI համակարգերը: Սա տիպիկ տեխնոլոգիական մանտրան է՝ համոզվելու, որ արագ ձախողվում եք և հաճախ ձախողվում, մինչև այն ճիշտ չհասցնեք (հուսով եմ, որ այն ճիշտ եք ստանում):

Իհարկե, նրանք, ովքեր էթիկապես կասկածելի արհեստական ​​ինտելեկտը ցրում են հանրության վրա, ձիուն բաց են թողնում գոմից: Նրանց հռչակած տարածված գաղափարն այն է, որ AI For Bad այն կշտկվի ամենօրյա օգտագործմանց հետո, ինչը վնասակար է ուշացումով, քանի որ ձին արդեն անտեղի շրջում է շուրջը: Վնասը կարելի է անել: Կա նաև մեծ հավանականություն, որ AI-ի օգտագործման ընթացքում ոչինչ չի շտկվի կամ ճշգրտվի: Հաճախակի արդարացումն այն է, որ այդ պահին արհեստական ​​ինտելեկտի հետ շփվելը կարող է ավելի վատթարացնել իրավիճակը՝ առանց էթիկական ալգորիթմական որոշումների կայացման (ADM) ամբողջությամբ դուրս գալու առումով:

Ի՞նչ կարելի է անել՝ էթիկական արհեստական ​​ինտելեկտը որպես վառ փայլող և ուղղորդող լույս ունենալու օգտակարությունն ու կենսունակությունը նրանց մտքերում, ովքեր կառուցում են AI, դաշտային AI և օգտագործում AI:

Պատասխան Ինքնագիտակցություն:

Այո, հասկացությունն այն է, որ եթե մարդիկ ավելի շատ գիտակցեն, թե ինչպես են օգտագործում կամ փոխազդում արհեստական ​​ինտելեկտի հետ, դա կարող է մեծացնել նրանց հակվածությունը՝ ցանկանալով, որ Էթիկական AI-ն նորմ լինի: Նույնը կարելի է ասել AI մշակողների և AI համակարգերի հետ առնչվող ընկերությունների մասին։ Եթե ​​նրանք ավելի շատ գիտակցեին, թե ինչ են անում, միգուցե նրանք ավելի շատ կընդունեին AI-ի էթիկան:

Արդեն իսկ ամրագրված տրամաբանության մի մասն այն է, որ ինքնագիտակցումը ցույց է տալիս էթիկապես ավելի լավ մարդ լինելու միտում, ինչպես նաև խուսափել էթիկապես ոջլոտ մարդ լինելուց: Եթե ​​մենք կարողանանք պահպանել այդ նախադրյալը, դա ենթադրում է, որ AI մշակողները, որոնք ավելի շատ հակված են դեպի ինքնագիտակցությունը, հետագայում հակված կլինեն դեպի էթիկական վարքագիծը և, հետևաբար, հակված կլինեն էթիկապես առողջ AI արտադրելուն:

Արդյո՞ք դա շատ հեռու կամուրջ է ձեզ համար:

Ոմանք կասեն, որ անուղղակիությունը մի քիչ շատ է։ Ինքնագիտակ լինելու, էթիկապես առաքինի լինելու և AI-ի նկատմամբ էթիկական կանոնները կիրառելու միջև կապերի չափազանց մեծ շղթան, գուցե, դժվար է կուլ տալ: Հակափաստարկն այն է, որ չի կարող խանգարել փորձել:

Թերահավատները կասեին, որ արհեստական ​​ինտելեկտի մշակողը կարող է լինել ինքնագիտակ և, հնարավոր է, ավելի էթիկական տրամադրված, բայց նրանք անպայման չեն պատրաստվում այդ մտավոր ճամբարը կիրառել Էթիկական AI-ի բարքերի մեջ: Այս վիճաբանության պատասխանն այն է, որ եթե մենք կարողանանք հանրայնացնել և հանրահռչակել Էթիկական AI-ի խնդիրները, ապա այլապես թեթև թվացող կապը կդառնա ավելի ակնհայտ, սպասված և, հնարավոր է, կդառնա գործեր անելու ստանդարտ ձև, երբ խոսքը վերաբերում է AI-ի ստեղծմանը:

Ես հիմա պատրաստվում եմ մի շրջադարձ ավելացնել այս սագային: Պտտումը կարող է ստիպել ձեր գլուխը պտտվել: Խնդրում եմ, համոզվեք, որ լավ նստած եք և պատրաստ եք այն, ինչ ես պատրաստվում եմ նշել:

Ոմանք նշում են, որ մենք պետք է կառուցենք Էթիկական AI ուղղակիորեն հենց AI-ի մեջ:

Դուք կարող եք չապշեցվել այդ հայտարարությունից: Եկեք բացենք այն:

Ծրագրավորողը կարող է ստեղծել արհեստական ​​ինտելեկտի համակարգ և դա անել սեփական ծրագրային ինքնագիտակցությամբ՝ փորձելով կանխել AI-ի կողմից կողմնակալություններն ու անհավասարությունները մարմնավորելը: Ծրագրավորումը պարզապես հերկելու փոխարեն, ծրագրավորողը հետևում է իր ուսի վրա՝ հարցնելու, թե արդյոք իրենց ձեռնարկած մոտեցումը կհանգեցնի AI-ում բացասական տարրերի պարտադիր բացակայությանը:

Հիանալի է, մենք ունենք AI ծրագրավորող, որը, ըստ երևույթին, բավականաչափ իրազեկ է, ձգտել է ընդունել էթիկական վարքագիծը և տեսել է լույսը՝ ներառելու էթիկական կանոնները, երբ նրանք մշակում են իրենց AI համակարգը:

Հաղթեք Ethical AI-ի համար:

Ամեն ինչ լավ է, թեև ահա մի բան, որը հետագայում կարող է հայտնվել: Արհեստական ​​ինտելեկտը դրված է և դրվում է ամենօրյա օգտագործման մեջ: Արհեստական ​​ինտելեկտի մի մասը ներառում էր բաղադրիչ՝ «սովորել» թռիչքի ժամանակ: Սա նշանակում է, որ AI-ն կարող է հարմարվել նոր տվյալների և սկզբնական ծրագրավորման այլ ասպեկտների հիման վրա: Որպես արագ մի կողմ, սա չի նշանակում, որ AI-ն զգայուն է: Մենք չունենք զգայուն AI: Անտեսեք այդ չարամիտ վերնագրերը, որոնք ասում են, որ մենք անում ենք: Ոչ ոք չի կարող ասել, թե արդյոք մենք կունենանք զգայուն AI, և ոչ էլ որևէ մեկը կարող է բավարար չափով կանխատեսել, թե երբ դա տեղի կունենա:

Վերադառնալով մեր հեքիաթին, AI-ն նպատակաուղղված էր մշակվել՝ ընթացքի ժամանակ ինքն իրեն բարելավելու համար: Բավականին հարմար հասկացություն: Ավելի շուտ, քան ծրագրավորողները ստիպված լինեն անընդհատ կատարելագործում կատարել, նրանք թույլ են տալիս AI ծրագրին դա անել ինքն իրեն (վայ, դա աշխատանքից ազատվո՞ւմ է):

Այն ժամանակահատվածում, երբ AI-ն դյույմ առ դյույմ հարմարվում է, պարզվում է, որ զանազան կոպիտ անհավասարություններ և կողմնակալություններ սողում են արհեստական ​​ինտելեկտի համակարգ՝ իր իսկ փոփոխության գործողություններով: Մինչդեռ ծրագրավորողն ի սկզբանե բաց է թողել այդ ցայտուն ասպեկտները, դրանք այժմ ձևակերպվում են՝ շնորհիվ AI-ի ինտենսիվ ճշգրտման: Ցավոք սրտի, դա կարող է տեղի ունենալ այնքան նուրբ կուլիսային ձևով, որ ոչ ոք ավելի իմաստուն չէ: Նրանք, ովքեր ավելի վաղ կարող էին կանաչ լույս տալ AI-ին նախնական սպառիչ փորձարկումից հետո, այժմ կուրորեն չգիտեն, որ AI-ն անցել է փտած ճանապարհով: AI For Bad.

Այս անցանկալի առաջացումը կա՛մ կանխելու, կա՛մ գոնե որսալու միջոցներից մեկը կլինի արհեստական ​​ինտելեկտի մեջ մի տեսակ Էթիկական AI կրկնակի ստուգիչ ստեղծելը: AI-ի ներսում բաղադրիչը ծրագրավորված է դիտելու AI-ի վարքագիծը և հայտնաբերելու, թե արդյոք ոչ էթիկական ADM-ն սկսում է ի հայտ գալ: Եթե ​​այո, ապա բաղադրիչը կարող է ծանուցում ուղարկել AI ծրագրավորողներին կամ դա անել մի ընկերության, որն աշխատում է AI համակարգը:

Այս բաղադրիչի ավելի առաջադեմ տարբերակը կարող է փորձել վերանորոգել AI-ն: Սա կլինի ճշգրտումների ճշգրտում` ոչ էթիկական ծագող ասպեկտները նորից դարձնելով պատշաճ էթիկական պարամետրեր: Դուք կարող եք պատկերացնել, որ այս տեսակի ծրագրավորումը բարդ է: Հնարավորություն կա, որ այն կարող է մոլորվել, հնարավոր է, որ անբարոյականությունը վերածվի խորապես անբարոյականի: Կա նաև կեղծ դրականի հավանականություն, որը գործի կդնի բաղադրիչը և, հնարավոր է, համապատասխանաբար խառնի իրերը:

Ինչևէ, չխորտակվելով, թե ինչպես կգործի այս կրկնակի ստուգիչը, մենք պատրաստվում ենք այդ մասին համարձակ հայտարարություն անել: Դուք կարող եք առաջարկել, որ ինչ-որ սահմանափակ ձևով, ասվում է, որ AI-ն ինքնագիտակ է:

Այո, դրանք շատերի համար մարտական ​​խոսքեր են:

Գրեթե բոլորի կողմից գերակշռող համոզմունքն այն է, որ այսօրվա AI-ն ինքնագիտակ չէ: Վերջակետ, կետ. Քանի դեռ չենք հասել խելացի AI-ին, որը մենք չգիտենք, թե դա տեղի կունենա, թե երբ, չկա որևէ տեսակի AI, որը գիտակից լինի իրեն: Ոչ թեկուզ մարդակենտրոն ինքնագիտակցության իմաստով։ Նույնիսկ մի հուշեք, որ դա կարող է տեղի ունենալ:

Ես, անշուշտ, համաձայն եմ, որ մենք պետք է զգույշ լինենք AI-ի մարդակերպման հարցում: Այդ մտահոգության մասին մի պահ ավելին կասեմ։

Մինչդեռ, եթե քննարկման համար պատրաստ լինեք օգտագործել փուլային «ինքնագիտակցումը» անփույթ կերպով, ես կարծում եմ, որ դուք կարող եք հեշտությամբ տեսնել, թե ինչու կարելի է ասել, որ AI-ը ենթարկվում է ինքնագիտակցության ընդհանուր հասկացությանը: իրազեկում։ Մենք ունենք AI-ի մի մասը, որը վերահսկում է AI-ի մնացած մասը՝ հետևելով այն բանին, թե ինչով է զբաղվում AI-ի մնացած մասը: Երբ AI-ի մնացած մասը սկսում է չափն անցնել, մոնիտորինգի բաժինը փորձում է բացահայտել դա: Ավելին, AI մոնիտորինգի հատվածը կամ կրկնակի ստուգիչը կարող է ուղղորդել AI-ի մնացած մասը ետ դեպի համապատասխան գոտիներ:

Արդյո՞ք դա մի փոքր նման չէ կատուների այդ տեսանյութերը դիտելուն և ինքնագիտակցելուն, որ դուք այդպես էիք անում:

Դրան ծանոթ օղակ կա։

Մենք կարող ենք սա ավելի երկարացնել: AI կրկնակի ստուգիչ բաղադրիչը ոչ միայն ծրագրված է դիտարկելու AI-ի մնացած մասերի վարքագիծը, այլև նշում է նրանց վարքագիծը, ովքեր օգտագործում են AI-ն: Ինչպե՞ս են օգտատերերը անում AI-ն օգտագործելիս: Ենթադրենք, որոշ օգտատերեր վրդովմունք են հայտնում, որ արհեստական ​​ինտելեկտը կարծես խտրականություն է ցուցաբերում իրենց նկատմամբ։ Արհեստական ​​ինտելեկտի կրկնակի ստուգիչը կարող է հասկանալ դա՝ օգտագործելով այն որպես այլ կարմիր դրոշ այն մասին, որ AI-ի մնացած մասը մոլորվում է:

Սա բերում է ներքին ինքնագիտակցության և արտաքին ինքնագիտակցության դասակարգումների:

Արհեստական ​​ինտելեկտի կրկնակի ստուգիչը սկանավորում է ներքին և արտաքին՝ պարզելու, թե արդյոք AI-ի մնացած մասը մտել է անհանգիստ ծովեր: Հայտնաբերումը կբարձրացնի դրոշակ կամ կառաջացնի ինքնաուղղում:

Ավելացնենք ևս մեկ փոքր-ինչ ցնցող ընդլայնում: Մենք կառուցում ենք մեկ այլ AI կրկնակի ստուգիչ, որը նախատեսված է կրկնակի ստուգելու հիմնական AI կրկնակի ստուգիչը: Ինչու այդպես? Դե, ենթադրենք, որ արհեստական ​​ինտելեկտի կրկնակի ստուգիչը կարծես թե տատանվում է կամ չի կարողանում կատարել իր աշխատանքը: Կրկնակի ստուգիչի AI-ի կրկնակի ստուգիչը կփորձի բացահայտել այս անսարքությունը և համապատասխանաբար ձեռնարկել անհրաժեշտ գործողություններ: Բարի գալուստ ինքնագիտակցության ռեկուրսիվ բնույթ, ոմանք կարող են հպարտորեն հայտարարել, ինչպես ցույց է տրված հաշվողական AI համակարգում:

Ձեզանից նրանց համար, ովքեր արդեն գտնվում են այս հարցում ձեր տեղը, վերջին մեկնաբանությունն առայժմ այն ​​է, որ մենք կարող ենք փորձել առաջարկել, որ եթե դուք AI համակարգերը դարձնեք «ինքնագիտակցական», ապա նրանք կարող են ձգտել դեպի էթիկական վարքագիծ: Արդյո՞ք նրանք դա անում են զգայական հիմունքներով: Միանշանակ՝ ոչ։ Արդյո՞ք նրանք դա անում են հաշվողական հիմունքներով: Այո, թեև մենք պետք է հստակ գիտակցենք, որ այն նույն տրամաչափի չէ, ինչ մարդկային վարքագիծը:

Եթե ​​ձեզ անհարմար է զգում, որ ինքնագիտակցման հասկացությունը սխալ կերպով աղավաղվում է, որպեսզի այն տեղավորվի հաշվողական սխեմայի մեջ, ապա այս հարցում ձեր անվստահությունը լավ է նշվում: Արդյո՞ք մենք պետք է դադարեցնենք AI-ի շարունակական ջանքերը, որոնք օգտագործում են այս հասկացությունը, այլ բաց հարց է: Դուք կարող եք համոզիչ կերպով պնդել, որ գոնե թվում է, որ դա մեզ առաջնորդում է դեպի ավելի լավ արդյունք այն բանի, թե ինչ կարող է անել AI-ն: Այնուամենայնիվ, մենք պետք է լայն բաց լինենք մեր աչքերը, քանի որ դա տեղի է ունենում:

Կռահեք, որ մենք պետք է տեսնենք, թե ինչպես է այս ամենը խաղում: Վերադարձեք դրան հինգ, տասը և հիսուն տարի հետո և տեսեք, թե արդյոք ձեր մտածելակերպը փոխվել է վիճելի հարցի վերաբերյալ:

Ես հասկանում եմ, որ սա եղել է թեմայի մի փոքր աղմկահարույց քննություն, և դուք կարող եք ցանկանալ ամենօրյա օրինակներ: Կա մի հատուկ և վստահաբար սիրված օրինակների հավաքածու, որն ինձ հոգեհարազատ է: Տեսեք, որպես AI-ի փորձագետ, ներառյալ էթիկական և իրավական հետևանքները, ինձ հաճախ են խնդրում բացահայտել իրատեսական օրինակներ, որոնք ցույց են տալիս AI-ի էթիկայի երկընտրանքները, որպեսզի թեմայի որոշ տեսական բնույթը ավելի հեշտ ըմբռնվի: Ամենաոգեշնչող ոլորտներից մեկը, որը վառ կերպով ներկայացնում է այս էթիկական արհեստական ​​ինտելեկտի խնդիրը, AI-ի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելն է: Սա կծառայի որպես հարմար օգտագործման դեպք կամ օրինակ՝ թեմայի շուրջ լայն քննարկման համար:

Ահա մի ուշագրավ հարց, որի մասին արժե մտածել. Արդյո՞ք արհեստական ​​ինտելեկտի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելը որևէ բան ցույց է տալիս արհեստական ​​ինտելեկտի մասին, որն ունի «ինքնագիտակցության» տեսք, և եթե այո, ապա ի՞նչ է սա ցույց տալիս:

Թույլ տվեք մի պահ բացել հարցը:

Նախ, նշեք, որ իրական ինքնակառավարվող մեքենայի մեջ մարդ վարորդ չկա: Հիշեք, որ իսկական ինքնակառավարվող մեքենաները վարում են AI վարորդական համակարգի միջոցով: Ղեկին մարդ վարորդի կարիք չկա, մեքենան վարելու համար մարդ չկա: Ինքնավար տրանսպորտային միջոցների (ԱՎ) և հատկապես ինքնակառավարվող մեքենաների իմ լայնածավալ և շարունակական լուսաբանման համար տե՛ս. հղումն այստեղ.

Ես կցանկանայի ավելի պարզաբանել, թե ինչ է նշանակում, երբ ես վերաբերում եմ իրական ինքնակառավարվող մեքենաներին:

Հասկանալով ինքնակառավարվող մեքենաների մակարդակները

Որպես պարզաբանում, իսկական ինքնակառավարվող մեքենաներն այն մեքենաներն են, որոնք AI- ն ամբողջովին ինքնուրույն է վարում մեքենան և մեքենայական առաջադրանքի ընթացքում մարդկային օգնություն չկա:

Այս առանց վարորդի տրանսպորտային միջոցները համարվում են 4-րդ և 5-րդ մակարդակներ (տե՛ս իմ բացատրությունը այս հղումը Մականուն), մինչդեռ մեքենան, որը մարդկային վարորդից պահանջում է համատեղ ջանքեր գործադրել, սովորաբար դիտարկվում է 2-րդ կամ 3-րդ մակարդակում: Մեքենաները, որոնք համատեղ կատարում են վարորդական առաջադրանքը, նկարագրվում են որպես կիսաինքնավար և սովորաբար պարունակում են մի շարք մեքենաներ: ավտոմատացված հավելումներ, որոնք կոչվում են ADAS (Վարորդների օգնության առաջադեմ համակարգեր):

5-րդ մակարդակում դեռ գոյություն չունի իսկական ինքնագնաց մեքենա, որը մենք դեռ չգիտենք, թե արդյոք դա հնարավոր կլինի հասնել, և ոչ էլ որքան ժամանակ կպահանջվի այնտեղ հասնելու համար:

Միևնույն ժամանակ, 4-րդ մակարդակի ջանքերը աստիճանաբար փորձում են որոշակի ձգողականություն ձեռք բերել՝ անցնելով շատ նեղ և ընտրովի հանրային ճանապարհային փորձարկումներ, թեև հակասություններ կան այն հարցի շուրջ, թե արդյոք այս թեստավորումն ինքնին պետք է թույլատրվի (մենք բոլորս փորձի մեջ կյանքի կամ մահվան ծովախոզուկներ ենք: ոմանք պնդում են, որ տեղի է ունենում մեր մայրուղիներում և ճանապարհների վրա, տես իմ լուսաբանումը այս հղումը Մականուն).

Քանի որ կիսաավտոմեքենաները մարդկային վարորդ են պահանջում, այդպիսի մեքենաների ընդունումը չի տարբերվի սովորական տրանսպորտային միջոցներից վարվելուց, հետևաբար, այս թեմայի շուրջ դրանց մասին ծածկելու համար ամենևին էլ նոր բան չկա (չնայած, ինչպես կտեսնեք մի ակնթարթում ընդհանուր առմամբ կիրառվում են հաջորդ կետերը):

Կիսաանվտանգ ավտոմեքենաների համար կարևոր է, որ հասարակությունը պետք է նախազգուշացվի վերջին շրջանում ի հայտ եկած անհանգստացնող կողմի մասին, մասնավորապես այն, որ չնայած այն մարդկային վարորդներին, ովքեր շարունակում են փակցնել իրենց տեսահոլովակները իրենց մասին, քնում են «Level 2» կամ «Level 3» մեքենայի ղեկին: , մենք բոլորս պետք է խուսափենք ապակողմնորոշվելուց `հավատալով, որ վարորդը կարող է իրենց ուշադրությունը հանել վարորդական առաջադրանքից` կիսաավտոմեքենան վարելիս:

Դուք պատասխանատու կողմն եք տրանսպորտային միջոցի վարման գործողությունների համար, անկախ նրանից, թե որ ավտոմատացումը կարող է տեղափոխվել 2-րդ մակարդակի կամ 3-րդ մակարդակի:

Ինքնակառավարվող մեքենաներ և AI, այսպես կոչված, ինքնագիտակցում

4-րդ և 5-րդ մակարդակների իսկական ինքնագնաց տրանսպորտային միջոցների համար վարորդական գործին չի մասնակցի մարդկային վարորդ:

Բոլոր գրավյալները ուղևորներ են լինելու:

AI- ն վարում է վարումը:

Անմիջապես քննարկելու մի ասպեկտ ենթադրում է այն փաստը, որ այսօր AI- ի վարման համակարգերում ներգրավված AI- ն զգայուն չէ: Այլ կերպ ասած, AI- ն ընդհանուր առմամբ համակարգչային ծրագրավորման և ալգորիթմների հավաքածու է, և, անկասկած, ի վիճակի չէ տրամաբանել այնպես, ինչպես մարդիկ կարող են:

Ինչու՞ է այս հավելյալ շեշտադրումը արհեստական ​​ինտելեկտի մասին զգացմունքային չէ:

Քանի որ ես ուզում եմ ընդգծել, որ երբ քննարկում եմ AI շարժիչ համակարգի դերը, ես մարդկային որակներ չեմ վերագրում AI- ին: Խնդրում ենք տեղյակ լինել, որ այս օրերին շարունակական և վտանգավոր միտում կա AI- ն մարդաբանելու համար: Ըստ էության, մարդիկ մարդկային նման զգացողություն են հատկացնում այսօրվա AI- ին, չնայած անհերքելի և անառարկելի փաստին, որ այդպիսի AI դեռ գոյություն չունի:

Այդ պարզաբանմամբ դուք կարող եք պատկերացնել, որ AI վարելու համակարգը բնիկ ինչ-որ կերպ «չի իմանա» վարման կողմերի մասին: Վարորդությունն ու դրա հետևանքները պետք է ծրագրավորվեն որպես ինքնակառավարվող մեքենայի սարքավորումների և ծրագրակազմի մաս:

Եկեք սուզվենք այն անհամար ասպեկտների մեջ, որոնք սկսում են խաղալ այս թեմայի շուրջ:

Նախ, կարևոր է գիտակցել, որ ոչ բոլոր ինքնակառավարվող AI մեքենաները նույնն են: Յուրաքանչյուր ավտոարտադրող և ինքնակառավարվող տեխնոլոգիական ընկերություն իր մոտեցումն է ցուցաբերում ինքնակառավարվող մեքենաների ստեղծման հարցում: Որպես այդպիսին, դժվար է լայնածավալ հայտարարություններ անել այն մասին, թե ինչ կանեն կամ չեն անեն AI վարորդական համակարգերը:

Ավելին, ամեն անգամ, երբ նշվում է, որ արհեստական ​​ինտելեկտի կառավարման համակարգը որոշակի բան չի անում, դա հետագայում կարող է շրջանցվել այն մշակողների կողմից, որոնք իրականում ծրագրավորում են համակարգիչը հենց դա անելու համար: Քայլ առ քայլ, արհեստական ​​ինտելեկտի շարժիչ համակարգերը աստիճանաբար բարելավվում և ընդլայնվում են: Այսօր գոյություն ունեցող սահմանափակումն այլևս գոյություն չի ունենա համակարգի ապագա կրկնության կամ տարբերակի դեպքում:

Հավատում եմ, որ բավականաչափ նախազգուշացում է ապահովում ՝ հիմք դնելու այն, ինչի մասին ես պատրաստվում եմ պատմել:

Մենք հիմա պատրաստ ենք խորը ուսումնասիրել ինքնակառավարվող մեքենաները և էթիկական AI հարցերը, որոնք ենթադրում են ինտելեկտուալ ինտելեկտի մի տեսակ ինքնագիտակցում ունենալու գաղափարը, եթե ցանկանում եք:

Եկեք օգտագործենք պարզ օրինակ: AI-ի վրա հիմնված ինքնակառավարվող մեքենան ընթանում է ձեր թաղամասի փողոցներում և կարծես թե ապահով է վարում: Սկզբում դուք հատուկ ուշադրություն էիք հատկացրել ամեն անգամ, երբ ձեզ հաջողվում էր հայացք նետել ինքնակառավարվող մեքենային։ Ինքնավար մեքենան աչքի էր ընկնում իր էլեկտրոնային սենսորների դարակով, որը ներառում էր տեսախցիկներ, ռադարային միավորներ, LIDAR սարքեր և այլն: Շատ շաբաթներ անց, երբ ինքնակառավարվող մեքենան շրջում էր ձեր համայնքում, դուք հիմա դա հազիվ եք նկատել: Ինչ վերաբերում է ձեզ, դա պարզապես հերթական մեքենան է առանց այն էլ բանուկ հանրային ճանապարհների վրա:

Որպեսզի չմտածեք, որ անհնար է կամ անհավանական է ծանոթանալ ինքնակառավարվող մեքենաներին, ես հաճախ եմ գրել այն մասին, թե ինչպես են այն վայրերը, որոնք գտնվում են ինքնակառավարվող մեքենաների փորձարկումների շրջանակում, աստիճանաբար ընտելացել են տեսնել երեսպատված մեքենաները: տես իմ վերլուծությունը այս հղումը Մականուն. Տեղի բնակիչներից շատերը, ի վերջո, անցան բերանից բացվող հառաչանքից դեպի այժմ արտանետելով ձանձրույթի լայնածավալ հորանջ՝ ականատես լինելու այդ ոլորապտույտ ինքնակառավարվող մեքենաներին:

Հավանաբար, հենց հիմա հիմնական պատճառը, որ նրանք կարող են նկատել ինքնավար մեքենաները, գրգռվածության և զայրույթի գործոնն է: AI վարորդական համակարգերը երաշխավորում են, որ մեքենաները ենթարկվում են արագության բոլոր սահմանափակումներին և ճանապարհային կանոններին: Իրենց ավանդական մարդկանց կողմից վարվող մեքենաներով բուռն մարդ վարորդների համար դուք զայրանում եք այն ժամանակ, երբ մնում եք խստորեն օրինապահ AI-ի վրա հիմնված ինքնակառավարվող մեքենաների հետևում:

Դա մի բան է, որին մենք բոլորս պետք է սովորենք՝ իրավացիորեն կամ սխալ կերպով:

Վերադարձ դեպի մեր հեքիաթը։ Մի օր, ենթադրենք, որ ձեր քաղաքում կամ քաղաքում ինքնակառավարվող մեքենան մոտենում է «Կանգառ» նշանին և թվում է, թե չի դանդաղում: Երկինք, թվում է, թե արհեստական ​​ինտելեկտի վարորդական համակարգը կունենա ինքնակառավարվող մեքենայի հերկը հենց Stop նշանի կողքով: Պատկերացրեք, եթե մոտակայքում ինչ-որ մի հետիոտն կամ հեծանվորդը գտնվեր և աննկատ բռնվեր, որ ինքնակառավարվող մեքենան պատշաճ կերպով կանգ չի առնի: Ամոթալի. Վտանգավոր!

Եվ, անօրինական.

Եկեք հիմա դիտարկենք AI բաղադրիչը AI վարորդական համակարգում, որը գործում է որպես ինքնագիտակցված կրկնակի ստուգման ոճ:

Մենք մի պահ կվերցնենք մանրամասները, թե ինչ է կատարվում AI վարորդական համակարգի ներսում: Պարզվում է, որ ինքնավար մեքենայի վրա տեղադրված տեսախցիկները հայտնաբերել են այն, ինչ թվում էր, թե գուցե «Կանգառ» նշան է, թեև այս դեպքում գերաճած ծառը առատորեն թաքցնում է «Կանգառ» նշանը: Մեքենայական ուսուցման և խորը ուսուցման համակարգը, որն ի սկզբանե ուսուցանվել է Stop նշանների վրա, մշակվել է հիմնականում լրիվ կանգառի նշանների օրինաչափությունների վրա, ընդհանուր առմամբ անկաշկանդ: Տեսանյութի պատկերները հաշվողականորեն ուսումնասիրելուց հետո ցածր հավանականություն է տրվել, որ այդ կոնկրետ տեղում գոյություն ունի Stop նշան (որպես հավելյալ բարդություն և լրացուցիչ բացատրություն, սա նոր փակցված Stop նշան է, որը չի երևում նախկինում պատրաստված թվային քարտեզների վրա, որոնք AI վարորդական համակարգը հենվում էր):

Ընդհանուր առմամբ, արհեստական ​​ինտելեկտի շարժիչ համակարգը հաշվողականորեն որոշել է առաջ գնալ, կարծես «Կանգառ» նշանը կա՛մ գոյություն չուներ, կա՛մ հնարավոր է այլ տեսակի նշան, որը, հավանաբար, նման է «Կանգառ» նշանի (սա կարող է տեղի ունենալ և տեղի է ունենում որոշակի հաճախականությամբ):

Բայց, բարեբախտաբար, AI ինքնագիտակցված կրկնակի ստուգիչը վերահսկում էր AI վարորդական համակարգի գործունեությունը: Տվյալների և AI-ի մնացած անդամների կողմից հաշվարկային վերանայումից հետո այս բաղադրիչը նախընտրեց անտեսել ընթացքի բնականոն ընթացքը և փոխարենը հրամայեց AI-ի վարման համակարգին համապատասխան կանգ առնել:

Ոչ ոք չի տուժել, ոչ մի անօրինական գործողություն չի առաջացել։

Կարելի է ասել, որ AI-ի ինքնագիտակցված կրկնակի ստուգիչը գործել է այնպես, կարծես այն ներկառուցված իրավաբանական գործակալ էր՝ փորձելով ապահովել, որ AI-ի վարման համակարգը ենթարկվի օրենքին (այս դեպքում՝ Stop նշան): Իհարկե, անվտանգությունը նույնպես կարևոր էր:

Այդ օրինակը, հուսով ենք, ցույց կտա, թե ինչպես կարող է աշխատել բեղմնավորված AI-ի ինքնագիտակցված կրկնակի ստուգիչը:

Հաջորդիվ մենք կարող ենք համառոտ դիտարկել ավելի ցայտուն Էթիկական AI օրինակ, որը ցույց է տալիս, թե ինչպես AI-ի ինքնագիտակցված կրկնակի ստուգումը կարող է ապահովել էթիկայի AI-ի վրա հիմնված ներկառուցված ֆունկցիոնալություն:

Նախ, որպես նախապատմություն, մտահոգություններից մեկը, որն արտահայտվել է AI-ի վրա հիմնված ինքնակառավարվող մեքենաների հայտնվելու վերաբերյալ, այն է, որ դրանք կարող են օգտագործվել ինչ-որ անզգույշ խտրական ձևով: Ահա թե ինչպես. Ենթադրենք, որ այդ ինքնակառավարվող մեքենաները ստեղծվել են փորձելու և առավելագույնի հասցնելու իրենց եկամուտների ներուժը, ինչը միանշանակ իմաստալից է նրանց համար, ովքեր շահագործում են ինքնակառավարվող մեքենաների նավատորմը: Նավատորմի սեփականատերը կցանկանար շահութաբեր գործունեություն ծավալել:

Կարող է լինել, որ տվյալ քաղաքում կամ քաղաքում ռոումինգի ինքնակառավարվող մեքենաներն աստիճանաբար սկսում են սպասարկել համայնքի որոշ հատվածներ և ոչ թե այլ տարածքներ: Նրանք դա անում են փող աշխատելու նպատակով, քանի որ ավելի աղքատ շրջանները կարող են այդքան եկամուտ չարտադրել, որքան տեղանքի հարուստ հատվածները: Սա որոշ ոլորտներին ծառայելու, մյուսներին չծառայելու բացահայտ ձգտում չէ: Փոխարենը, այն օրգանականորեն առաջանում է, քանի որ ինքնակառավարվող մեքենաների արհեստական ​​ինտելեկտը հաշվողականորեն «հասկանում է», որ ավելի շատ գումար է պետք աշխատել՝ կենտրոնանալով աշխարհագրորեն ավելի բարձր վարձատրվող տարածքների վրա: Ես քննարկել եմ այս սոցիալական էթիկական մտահոգությունը իմ սյունակում, ինչպես օրինակ հղումն այստեղ.

Ենթադրենք, որ մենք ավելացրել ենք AI ինքնագիտակցող կրկնակի ստուգիչ AI վարորդական համակարգերում: Որոշ ժամանակ անց AI բաղադրիչը հաշվողականորեն նկատում է օրինաչափություն, թե որտեղ են ռոումինգում ինքնակառավարվող մեքենաները: Հատկանշական է, որ որոշ ոլորտներում, բայց ոչ որոշ ոլորտներում: Հիմնվելով էթիկական AI-ի որոշ սկզբունքներով կոդավորված լինելու վրա՝ AI ինքնագիտակցող կրկնակի ստուգիչը սկսում է ինքնակառավարվող մեքենաներին ուղղորդել դեպի քաղաքի այլ մասեր, որոնք այլ կերպ անտեսված էին:

Սա ցույց է տալիս AI-ի ինքնագիտակցական հասկացությունը և դա անում է Էթիկական AI տարրի հետ համատեղ:

Եվս մեկ նման օրինակ կարող է պատկերացում կազմել, որ այս Էթիկական AI-ի դիտարկումը կարող է նաև կյանքի կամ մահվան լուրջ հետևանք լինել:

Դիտարկենք վերջերս տեղի ունեցած ավտովթարի մասին լուրերը: Հաղորդվում է, որ մարդ վարորդը բարձրացել է բանուկ խաչմերուկ և կանաչ լույս է վառել՝ ուղիղ առաջ գնալու համար: Մեկ այլ վարորդ տակառով անցավ կարմիր լույսի կողքով և մտավ խաչմերուկ, երբ չպետք է դա անեին: Կանաչ լույսով վարորդը վերջին պահին հասկացավ, որ այս մյուս մեքենան դաժանորեն բախվելու է իր մեքենային։

Ըստ այս վտանգի ենթարկված վարորդի, նա գիտակցաբար հաշվարկել է, որ կա՛մ իրեն հարվածելու է մյուս մեքենան, կա՛մ կարող է շեղվել՝ փորձելով խուսափել միջամտողից: Շեղվելու խնդիրն այն էր, որ մոտակայքում կային հետիոտներ, որոնք վտանգված էին։

Ո՞ր ընտրությունը կկատարեիք:

Դուք կարող եք պատրաստվել ձեզ հարվածելու և հուսալ, որ վնասը ձեզ չի խեղի կամ սպանի: Մյուս կողմից, դուք կարող եք արմատապես շեղվել, բայց դաժանորեն վտանգել և, հնարավոր է, վնասել կամ սպանել մոտակա հետիոտներին: Սա բարդ խնդիր է, որը ներառում է բարոյական դատողություն և ամբողջությամբ թաթախված է էթիկական (և իրավական) հետևանքներով:

Գոյություն ունի ընդհանուր նշանակության էթիկական տարաձայնություն, որն ընդգրկում է այս տեսակի երկընտրանքը, որը հայտնի կամ գուցե տխրահռչակ կոչվում է տրոլեյբուսի խնդիր, տես իմ լայնածավալ լուսաբանումը այստեղ. այս հղումը Մականուն. Պարզվում է, որ դա էթիկապես խթանող մտքի փորձ է, որը սկիզբ է առնում 1900-ականների սկզբից: Որպես այդպիսին, թեման բավականին երկար ժամանակ է, ինչ և վերջերս ընդհանուր առմամբ կապված է AI-ի և ինքնակառավարվող մեքենաների հայտնվելու հետ:

Փոխարինեք մարդկային վարորդին AI վարորդական համակարգով, որը տեղադրված է ինքնակառավարվող մեքենայի մեջ:

Այդ դեպքում պատկերացրեք, որ արհեստական ​​ինտելեկտով ինքնակառավարվող մեքենան մտնում է խաչմերուկ, և ինքնավար մեքենայի սենսորները հանկարծ հայտնաբերում են մարդու կողմից կառավարվող մեքենան, որը վտանգավոր կերպով անցնում է ուղիղ կարմիր լույսի միջով և ուղղված է անվարորդ մեքենայի վրա: Ենթադրենք, որ ինքնակառավարվող մեքենան ունի որոշ ուղևորներ մեքենայի ներսում:

Ի՞նչ եք ուզում, որ AI-ն անի:

Եթե ​​AI վարորդական համակարգը նախընտրի առաջ շարժվել և ներխուժել (հնարավոր է վնասել կամ կարող է սպանել մեքենայի ներսում գտնվող ուղևորներին), թե՞ ցանկանում եք, որ AI վարորդական համակարգը հնարավորություն ունենա և շեղվի, թեև շեղման գործողությունը տանում է ինքնավար մեքենան: վտանգավոր է մոտակա հետիոտների նկատմամբ և կարող է վնասել կամ սպանել նրանց:

Ինքնավար մեքենաների արհեստական ​​ինտելեկտի արտադրողներից շատերը «գլուխը ավազի մեջ» մոտեցում են ցուցաբերում այս էթիկական արհեստական ​​ինտելեկտի բորբոքային դժվարություններին: Ընդհանուր առմամբ, AI-ն, ինչպես ներկայումս ծրագրավորված է, պարզապես առաջ էր վարում և բռնության ենթարկվում մյուս մեքենայի կողմից: AI-ն ծրագրավորված չէր այլ խուսափողական մանևրներ փնտրելու համար:

Ես բազմիցս կանխատեսել եմ, որ արհեստական ​​ինտելեկտի ինքնակառավարվող մեքենաների արտադրողների այս «չտես-չարը լսել-ոչ-չար» դիրքորոշումը, ի վերջո, կգա և կկծի նրանց (իմ վերլուծությունը հետևյալն է. հղումն այստեղ) Դուք կարող եք ակնկալել դատական ​​հայցեր՝ կապված նման ավտովթարների հետ, որոնք կփորձեն պարզել, թե ինչի համար է ծրագրված AI-ն: Արդյո՞ք ընկերությունը կամ արհեստական ​​ինտելեկտի մշակողները կամ նավատորմի օպերատորը, որը մշակել և ցուցադրել է արհեստական ​​ինտելեկտը, անփութությո՞ւն է եղել, թե՞ պատասխանատվություն է կրում արհեստական ​​ինտելեկտի արածի կամ չարածի համար: Դուք կարող եք նաև ակնկալել, որ այս տեսակի դեպքերի դեպքում էթիկական արհեստական ​​ինտելեկտի իրազեկման մասին հանրության մասշտաբով հրդեհային փոթորիկ կսկսվի:

Այս Էթիկական AI երկընտրանքի մեջ մտնում է մեր հպարտ AI ինքնագիտակցող կրկնակի ստուգիչը, որը ուղղված է էթիկայի: Հավանաբար, այս հատուկ AI բաղադրիչը կարող է ներգրավվել այս տեսակի հանգամանքներում: Մասնակիցը վերահսկում է AI վարորդական համակարգի մնացած մասը և ինքնակառավարվող մեքենայի կարգավիճակը: Երբ նման սարսափելի պահ է առաջանում, AI բաղադրիչը ծառայում է որպես տրոլեյբուսի խնդիրների լուծող և առաջարկում է, թե ինչ պետք է անի AI վարորդական համակարգը:

Կոդավորելը հեշտ բան չէ, վստահեցնում եմ:

Եզրափակում

Ես ձեզ հետ կկիսվեմ այս թեմայի վերաբերյալ առայժմ վերջին մտքով:

Դուք, ամենայն հավանականությամբ, դա ինտրիգային կհամարեք:

Գիտե՞ք այդ մասին հայելու թեստ?

Դա բավականին հայտնի է ինքնագիտակցության ուսումնասիրության մեջ։ Այս հարցի այլ անվանումներն են՝ հայելու ինքնաճանաչման թեստը, կարմիր կետի թեստը, կարմրավուն թեստը և հարակից արտահայտությունները: Տեխնիկան և մոտեցումը սկզբնապես մշակվել են 1970-ականների սկզբին՝ կենդանիների ինքնագիտակցությունը գնահատելու համար: Ինչպես հաղորդվում է, թեստը հաջողությամբ հանձնած կենդանիներից են կապիկները, փղերի որոշ տեսակներ, դելֆիններ, կաչաղակներ և մի քանի այլ տեսակներ: Կենդանիները, որոնք փորձարկվել են և, ըստ տեղեկությունների, չեն անցել թեստը, ներառում են հսկա պանդաներ, ծովային առյուծներ և այլն:

Ահա գործարքը:

Երբ կենդանին իրեն տեսնում է հայելու մեջ, արդյո՞ք կենդանին գիտակցում է, որ ցուցադրված պատկերն իրենն է, թե՞ կենդանին կարծում է, որ դա այլ կենդանի է:

Ենթադրաբար, կենդանին տեսողականորեն ճանաչում է իր տեսակը՝ տեսնելով իր տեսակին և, հետևաբար, կարող է մտածել, որ հայելու մեջ ցուցադրված կենդանին զարմիկ է կամ գուցե ռազմատենչ մրցակից (հատկապես, եթե կենդանին մռնչում է հայելային պատկերի վրա, որը. հերթը կարծես ետ է գռմռում նրանց վրա): Հավանաբար դուք տեսել եք, որ ձեր տնային կատուն կամ սիրելի ընտանի շունն անում են նույնը, երբ նա առաջին անգամ իրեն տեսնում է կենցաղային հայելու մեջ:

Ամեն դեպքում, մենք կենթադրենք, որ վայրի կենդանին իրեն երբեք չի տեսել։ Դե, սա պարտադիր չէ, որ ճիշտ լինի, քանի որ, հավանաբար, կենդանին ինքն իրեն տեսել է հանգիստ ջրի ավազանում կամ փայլուն ժայռային գոյացության միջով։ Բայց դրանք համարվում են ավելի քիչ հավանական շանսեր:

Լավ, մենք ուզում ենք ինչ-որ կերպ գնահատել, թե արդյոք կենդանին ի վիճակի է պարզել, որ դա իրականում հայելու մեջ ցուցադրված կենդանին է: Խորհեք այդ պարզ թվացող արարքի մասին: Մարդիկ երիտասարդ տարիքում հասկանում են, որ գոյություն ունեն, և որ իրենց գոյությունը ցույց է տալիս իրենց հայելու մեջ տեսնելով: Նրանք դառնում են ինքնագիտակցում իրենց մասին: Տեսականորեն դուք կարող եք չհասկանալ, որ դուք ինքներդ եք, մինչև ինքներդ ձեզ չտեսնեք հայելու մեջ:

Միգուցե կենդանիները նույն ձևով ի վիճակի չեն ճանաչողականորեն ինքնագիտակցվելու: Հնարավոր է, որ կենդանին իրեն տեսնի հայելու մեջ և հավերժ հավատա, որ դա այլ կենդանի է: Անկախ նրանից, թե քանի անգամ նա իրեն տեսնի, այնուամենայնիվ կմտածի, որ սա իրենից տարբերվող կենդանի է։

Սրա հնարք մասը գալիս է խաղալու: Կենդանու վրա նշան ենք անում։ Այս նշանը պետք է տեսանելի լինի միայն այն ժամանակ, երբ կենդանին իրեն տեսնում է հայելու մեջ: Եթե ​​կենդանին կարող է պտտվել կամ շրջվել և տեսնել իր հետքը (ուղղակիորեն), դա փչացնում է փորձը: Ավելին, կենդանին չի կարող զգալ, հոտել կամ որևէ այլ ձևով հայտնաբերել նշանը: Կրկին, եթե նրանք այդպես անեին, դա կփչացներ փորձը: Կենդանին չի կարող իմանալ, որ մենք դրա վրա դրել ենք նշանը, քանի որ դա գազանին ցույց կտա, որ այնտեղ ինչ-որ բան կա:

Մենք ցանկանում ենք նեղացնել իրերը այնպես, որ նշանի հայտնաբերման միակ հնարավոր պատճառը լինի հայելու մեջ իրեն նայելը:

Ահ, թեստն այժմ պատրաստ է։ Կենդանին տեղադրվում է հայելու առաջ կամ թափառում է դեպի այն։ Եթե ​​կենդանին հետագայում փորձի դիպչել կամ փորել նշանը, ապա մենք ողջամտորեն կեզրակացնենք, որ դա տեղի կունենա միայն այն դեպքում, եթե կենդանին հասկանա, որ այդ նշանն իր վրա է: Կենդանիների շատ քիչ տեսակներ են կարողացել հաջողությամբ անցնել այս թեստը:

Թեստի վերաբերյալ մի շարք քննադատություններ կան: Եթե ​​մոտակայքում մարդ փորձարկող կա, նրանք կարող են ինչ-որ բան տալ՝ նայելով նշագծին, ինչը կարող է ստիպել կենդանուն խոզանակել կամ զգալ այն: Մեկ այլ հավանականություն այն է, որ կենդանին դեռ հավատում է, որ հայելու մեջ ցուցադրված է մեկ այլ կենդանի, բայց այն նույն տեսակի է, և այդպիսով կենդանին մտածում է, թե արդյոք նա նույնպես ունի այնպիսի հետք, ինչպիսին է մյուս կենդանու վրա:

Անընդհատ շարունակվում է:

Համոզված եմ, որ դուք ուրախ եք իմանալով դա և այսուհետ կհասկանաք, թե ինչու է կենդանու վրա կետ կամ տարօրինակ գծանշում, որն այլապես նման նշան չէր ունենա: Ով գիտի, այն կարող էր վերջերս ավարտել հայելու փորձարկման փորձը: Անվտանգ շնորհավորեք կենդանուն առատաձեռն մասնակցության համար:

Դրանցից որևէ մեկը ի՞նչ կապ ունի AI-ի վրա հիմնված ինքնակառավարվող մեքենաների հետ:

Ձեզ դուր կգա այս հատվածը։

Երկար մայրուղով ընթանում է ինքնակառավարվող մեքենա։ AI վարորդական համակարգը օգտագործում է սենսորներ՝ այլ երթևեկությունը հայտնաբերելու համար: Սա երկու գոտի ունեցող մայրուղի է, որն ունի երթևեկություն մի գծով դեպի հյուսիս և մյուս գոտիով դեպի հարավ: Երբեմն մեքենաներն ու բեռնատարները կփորձեն անցնել միմյանց՝ մտնելով հակառակ երթևեկելի գոտի, այնուհետև նորից ցատկելով իրենց ճամփորդության համապատասխան գոտին:

Դուք տեսել եք սա, դուք, անկասկած, արել եք սա:

Գրազ կգամ, որ այս հաջորդ ասպեկտը նույնպես ձեզ հետ է պատահել: Ինքնավար մեքենայից առաջ այդ զգալի տանկեր բեռնատարներից մեկն է: Այն պատրաստված է փայլուն մետաղից։ Ողորկված և մաքուր, ինչպես սուլիչը: Նման բեռնատարի հետևում նստելիս դուք կարող եք տեսնել ձեր մեքենայի հայելային պատկերը տանկերի հետևի մասով: Եթե ​​դուք տեսել եք սա, ապա գիտեք, թե որքան հիպնոս կարող է լինել: Ահա դուք և ձեր մեքենան՝ արտացոլված բեռնատար բեռնատարի հետևի հայելային արտացոլանքում:

Նստեք խելահեղ շրջադարձի համար:

Ինքնավար մեքենան դուրս է գալիս տանկերի հետևում: Տեսախցիկները ֆիքսում են մեքենայի պատկերը, որը ցուցադրվում է հայելու նման արտացոլման մեջ: Ով, AI-ն գնահատում է, դա մեքենա՞ է: Արդյո՞ք այն գալիս է ինքնակառավարվող մեքենայի մոտ: Քանի որ ինքնակառավարվող մեքենան ավելի ու ավելի է մոտենում տանկերին, մեքենան կարծես ավելի ու ավելի է մոտենում:

Այո, AI-ն հաշվողականորեն կարող է հաշվարկել, որ սա վտանգավոր իրավիճակ է, և AI-ն պետք է խուսափողական գործողություններ ձեռնարկի այս խենթ սրիկա մեքենայից: Տեսեք, AI-ն իրեն հայելու մեջ չճանաչեց: Չհաջողվեց հայելու թեստը:

Ինչ անել? Հավանաբար, AI-ի ինքնագիտակցված կրկնակի ստուգիչը ցատկում է հարցի մեջ և հանգստացնում AI-ի շարժիչ համակարգի մնացած անդամներին, որ դա միայն անվնաս արտացոլանք է: Վտանգը կանխված է. Աշխարհը փրկված է. AI Mirror Test-ի հաջող անցում:

Անշուշտ եզրակացության դեպքում մենք նույնիսկ կարող ենք առաջարկել, որ երբեմն AI-ն ավելի խելացի է կամ առնվազն ավելի լավ գիտակցում է, քան միջին արջը (չնայած արջերի պատվին, նրանք սովորաբար լավ են անցնում հայելու թեստում, հաճախ ստացվել են օգտագործվում են դրանց արտացոլումը ջրային ավազաններում):

Ուղիղ, միգուցե AI-ն կարող է ավելի լավ գիտակցել, քան հսկա պանդաներն ու ծովային առյուծները, բայց մի ասեք դա կենդանիներին, նրանք կարող են գայթակղվել ջարդել կամ ջարդել AI համակարգերը: Մենք դա չենք ուզում, չէ՞:

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/