Արհեստական ​​ինտելեկտի էթիկան ահազանգում է զանգվածային գլոբալ մասշտաբով AI-ի կողմնակալության մոտեցող սպեկտրի մասին, որը հատկապես սնուցվում է ակնառու լիովին ինքնավար համակարգերի միջոցով

Պլատոնը հայտնի է, որ լավ որոշումը հիմնված է գիտելիքի և ոչ թե թվերի վրա:

Այս խորաթափանց պատկերացումը զարմանալիորեն կանխատեսում է այսօրվա Արհեստական ​​ինտելեկտի (AI) մասին:

Տեսնում եք, չնայած աղմկահարույց վերնագրերին, որոնք ներկայումս հայտարարում են, որ AI-ն ինչ-որ կերպ հասել է զգացողության և մարմնավորում է մարդկային գիտելիքներն ու բանականությունը, խնդրում եմ տեղյակ եղեք, որ այս գերագնահատված AI հիպերբոլիան նենգ նախատրամադրվածություն է, քանի որ մենք դեռ հիմնվում ենք այսօրվա ալգորիթմի որոշումների կայացման հարցում (ADM): ) ինչպես ստանձնել են AI համակարգերը: Նույնիսկ գովաբանված մեքենայական ուսուցումը (ML) և խորը ուսուցումը (DL) բաղկացած են հաշվողական օրինաչափությունների համապատասխանությունից, ինչը նշանակում է, որ թվերը դեռևս գտնվում են ML/DL-ի բարձր օգտագործման հիմքում:

Մենք չգիտենք՝ հնարավո՞ր է արդյոք արհեստական ​​ինտելեկտի հասնելը: Կարող էր լինել, կարող էր չլինել: Ոչ ոք չի կարող հստակ ասել, թե դա ինչպես կարող է առաջանալ: Ոմանք կարծում են, որ մենք աստիճանաբար կբարելավենք մեր հաշվողական AI-ի ջանքերն այնպես, որ ինքնաբուխ զգացողություն առաջանա: Մյուսները կարծում են, որ արհեստական ​​ինտելեկտը կարող է ընթանալ հաշվողական գերնոր աստղի մեջ և ինքնահավանորեն հասնել զգացողության (սովորաբար կոչվում է եզակիություն): Արհեստական ​​ինտելեկտի ապագայի վերաբերյալ այս տեսությունների վերաբերյալ լրացուցիչ տեղեկությունների համար տե՛ս իմ լուսաբանումը այստեղ հղումն այստեղ.

Այսպիսով, եկեք չկատակենք ինքներս մեզ և կեղծ հավատանք, որ ժամանակակից AI-ն ի վիճակի է մտածել մարդկանց նման: Ենթադրում եմ, որ այնուհետև հարցն առաջին պլան է մղվում Պլատոնի դիտողության վերաբերյալ, թե արդյոք մենք կարող ենք լավ որոշումներ ունենալ՝ հիմնված հաշվողական AI-ի, այլ ոչ թե զգայուն AI-ի վրա: Դուք կարող եք զարմանալ, եթե իմանաք, որ ես կպնդեմ, որ մենք իսկապես կարող ենք լավ որոշումներ կայացնել ամենօրյա AI համակարգերի կողմից:

Այդ մետաղադրամի մյուս կողմն այն է, որ մենք կարող ենք ունենալ նաև ամենօրյա AI համակարգեր, որոնք վատ որոշումներ են կայացնում: Փտած որոշումներ. Որոշումներ, որոնք լի են անբարենպաստ կողմնակալություններով և անհավասարություններով: Դուք կարող եք տեղյակ լինել, որ երբ սկսվեց AI-ի վերջին դարաշրջանը, խանդավառության մեծ պոռթկում էր այն, ինչ այժմ ոմանք անվանում են: AI For Good. Ցավոք սրտի, այդ բուռն հուզմունքից հետո մենք սկսեցինք ականատես լինել AI For Bad. Օրինակ, AI-ի վրա հիմնված դեմքի ճանաչման տարբեր համակարգեր բացահայտվել են որպես ռասայական և գենդերային կողմնակալություններ պարունակող, որոնք ես քննարկել եմ հղումն այստեղ.

Դեմ պայքարելու ջանքերը AI For Bad ակտիվորեն ընթանում են։ Բացի աղմկոտ իրավական Սխալ արարքները զսպելու ձգտումները, կա նաև զգալի մղում դեպի AI էթիկան ընդունելու՝ AI-ի ստորությունը շտկելու համար: Հասկացությունը կայանում է նրանում, որ մենք պետք է ընդունենք և հաստատենք Արհեստական ​​ինտելեկտի էթիկական հիմնական սկզբունքները Արհեստական ​​ինտելեկտի զարգացման և ներդրման համար՝ դա անելով նվազեցնելու համար AI For Bad և միաժամանակ ազդարարելով և խթանելով նախընտրելիը AI For Good.

AI-ի էթիկայի և էթիկական AI-ի իմ լայնածավալ լուսաբանումը կարելի է գտնել այստեղ այս հղումը Մականուն և այս հղումը Մականուն, պարզապես մի քանի անուն:

Այս քննարկման համար ես կցանկանայի առանձնացնել AI-ի վերաբերյալ հատկապես մտահոգիչ մի կողմ, որի մասին AI-ի էթիկայի ասպարեզում գտնվողներն իրավամբ ողբում են և փորձում են բարձրացնել իրազեկությունը: Սթափեցնող և անհանգստացնող հարցն իրականում բավականին պարզ է նշել:

Ահա այն: AI-ն իրական աշխարհի ներուժն ունի՝ տագնապալի գլոբալ մասշտաբով AI-ով թաթախված կողմնակալություններ տարածելու համար:

Եվ երբ ես ասում եմ «մասշտաբով», սա ակնհայտորեն նշանակում է համաշխարհային մասշտաբ: Հումոնգ սանդղակ. Կշեռք, որը դուրս է գալիս կշեռքից:

Նախքան խորանալը, թե ինչպես է տեղի ունենալու AI-ով հագեցած կողմնակալության այս մասշտաբը, եկեք համոզվենք, որ մենք բոլորս պատկերացում ունենք, թե ինչպես AI-ն կարող է ներառել անհարկի կողմնակալություններ և անհավասարություններ: Կրկին հիշեցնենք, որ սա զգայական բազմազանություն չէ: Այս ամենը հաշվողական տրամաչափի է:

Դուք կարող եք շփոթված լինել, թե ինչպես AI-ն կարող է ներծծել նույն տեսակի անբարենպաստ կողմնակալություններն ու անհավասարությունները, որոնք անում են մարդիկ: Մենք հակված ենք ինտելեկտի մասին մտածել որպես ամբողջովին չեզոք, անկողմնակալ, պարզապես մի մեքենա, որը չունի այն զգացմունքային ազդեցությունն ու գարշելի մտածողությունը, ինչ մարդիկ կարող են ունենալ: AI-ի ամենասովորական միջոցներից մեկը, որը ընկնում է կողմնակալության և անհավասարության համառության մեջ, տեղի է ունենում մեքենայական ուսուցման և խորը ուսուցման օգտագործման ժամանակ, մասամբ՝ մարդկանց կողմից որոշումներ կայացնելու մասին հավաքագրված տվյալների վրա հենվելու արդյունքում:

Թույլ տվեք մի պահ մանրամասնել:

ML/DL-ը հաշվողական օրինաչափությունների համապատասխանության ձև է: Սովորական մոտեցումն այն է, որ դուք հավաքում եք տվյալներ որոշումներ կայացնելու առաջադրանքի վերաբերյալ: Դուք սնուցում եք տվյալները ML/DL համակարգչային մոդելների մեջ: Այդ մոդելները ձգտում են գտնել մաթեմատիկական օրինաչափություններ: Այդպիսի օրինաչափություններ գտնելուց հետո, եթե գտնվեն, ապա արհեստական ​​ինտելեկտի համակարգը կօգտագործի այդ օրինաչափությունները նոր տվյալների հանդիպելիս: Նոր տվյալների ներկայացումից հետո «հին» կամ պատմական տվյալների վրա հիմնված օրինաչափությունները կիրառվում են ընթացիկ որոշում կայացնելու համար:

Կարծում եմ, դուք կարող եք կռահել, թե ուր է սա գնում: Եթե ​​մարդիկ, ովքեր որոշումներ են կայացնում, իրենց մեջ ներդնում են անբարենպաստ կողմնակալություն, ապա հավանականությունն այն է, որ տվյալներն արտացոլում են դա նուրբ, բայց նշանակալի ձևերով: Մեքենայի ուսուցման կամ խորը ուսուցման հաշվողական օրինաչափությունների համընկնումը պարզապես կփորձի համապատասխանաբար մաթեմատիկորեն նմանակել տվյալները: Առողջ դատողության կամ AI-ի կողմից ստեղծված մոդելավորման այլ զգալի ասպեկտներ ինքնին չկա:

Ավելին, AI մշակողները նույնպես կարող են չհասկանալ, թե ինչ է կատարվում: ML/DL-ի գաղտնի մաթեմատիկան կարող է դժվարացնել այժմ թաքնված կողմնակալությունների բացահայտումը: Դուք իրավամբ հույս կունենաք և ակնկալում եք, որ AI մշակողները կփորձարկեն պոտենցիալ թաղված կողմնակալության համար, թեև դա ավելի բարդ է, քան կարող է թվալ: Մեծ հավանականություն կա, որ նույնիսկ համեմատաբար լայնածավալ փորձարկումների դեպքում, ML/DL-ի օրինաչափությունների համապատասխանող մոդելներում դեռևս առկա կլինեն կողմնակալություններ:

Դուք կարող եք ինչ-որ չափով օգտագործել աղբի մեջ աղբի դուրս գալու հայտնի կամ տխրահռչակ ասացվածքը: Բանն այն է, որ սա ավելի շատ նման է կողմնակալություններին, որոնք նենգորեն ներարկվում են որպես AI-ի մեջ ընկղմված կողմնակալություններ: Որոշումների կայացման ալգորիթմը կամ AI-ի ADM-ն աքսիոմատիկորեն լցվում է անհավասարություններով:

Ոչ լավ.

Սա մեզ բերում է արհեստական ​​ինտելեկտի վրա թաթախված կողմնակալության խնդրին, երբ գտնվում ենք մասշտաբով:

Նախ, եկեք տեսնենք, թե ինչպես կարող են մարդկային կողմնակալությունները անհավասարություններ ստեղծել: Ընկերությունը, որը տրամադրում է հիփոթեքային վարկեր, որոշում է վարձել հիփոթեքային վարկի գործակալ: Ենթադրվում է, որ գործակալը պետք է վերանայի այն սպառողների հարցումները, որոնք ցանկանում են բնակարանային վարկ ստանալ: Հայտը գնահատելուց հետո գործակալը որոշում է կայացնում կամ տրամադրել վարկը կամ մերժել վարկը: Հեշտ-հեշտ:

Քննարկման համար եկեք պատկերացնենք, որ մարդկային վարկային գործակալը կարող է օրական 8 վարկ վերլուծել՝ յուրաքանչյուր վերանայման համար մոտ մեկ ժամ տևողությամբ: Հնգօրյա աշխատանքային շաբաթվա ընթացքում գործակալն անում է մոտ 40 վարկի վերանայում: Տարեկան կտրվածքով գործակալը սովորաբար անում է մոտ 2,000 վարկի վերանայում, տալիս կամ վերցնում է մի քիչ:

Ընկերությունը ցանկանում է ավելացնել վարկերի վերանայումների ծավալը, այդպիսով ընկերությունը վարձում է 100 լրացուցիչ վարկային գործակալ: Ենթադրենք, որ նրանք բոլորն ունեն մոտավորապես նույն արտադրողականությունը, և դա ենթադրում է, որ մենք այժմ կարող ենք տարեկան մոտ 200,000 վարկ տրամադրել (տարեկան 2,000 վարկի վերանայում մեկ գործակալի համար): Կարծես թե մենք իսկապես արագացրել ենք վարկային հայտերի մշակումը:

Պարզվում է, որ ընկերությունը մշակում է արհեստական ​​ինտելեկտի համակարգ, որն ըստ էության կարող է անել նույն վարկի վերանայումները, ինչ մարդկային գործակալները: AI-ն աշխատում է ամպի համակարգչային սերվերների վրա: Ամպային ենթակառուցվածքի միջոցով ընկերությունը կարող է հեշտությամբ ավելացնել ավելի շատ հաշվողական հզորություն՝ հարմարեցնելու ցանկացած ծավալի վարկային ակնարկներ, որոնք կարող են անհրաժեշտ լինել:

Առկա AI կոնֆիգուրացիայով նրանք կարող են ժամում կատարել 1,000 վարկի վերանայում: Սա նույնպես կարող է տեղի ունենալ 24×7: AI-ի համար արձակուրդի ժամանակ չի պահանջվում: Ընդմիջումներ չկան: Արհեստական ​​ինտելեկտը աշխատում է շուրջօրյա՝ առանց ծանրաբեռնվածության մասին ճռռոցների: Մենք կասենք, որ այդ մոտավոր տեմպերով AI-ն կարող է մշակել տարեկան մոտ 9 միլիոն վարկային հայտ:

Ուշադրություն դարձրեք, որ մենք 100 մարդկային գործակալներ ունենալուց, որոնք կարող էին տարեկան 200,000 վարկ տրամադրել, բազմիցս ցատկեցինք AI համակարգի միջոցով տարեկան 9 միլիոն ակնարկների շատ աճող թվին: Մենք կտրուկ ընդլայնել ենք մեր վարկի հարցումների մշակումը: Դրանում կասկած չկա:

Պատրաստվեք այն հարվածին, որը, հավանաբար, կստիպի ձեզ ընկնել ձեր աթոռից:

Ենթադրենք, որ մեր մարդկային գործակալներից ոմանք իրենց վարկային որոշումները կայացնում են անբարենպաստ կողմնակալության հիման վրա: Հավանաբար ոմանք ռասայական գործոններին տալիս են առանցքային դեր վարկի որոշման հարցում: Միգուցե ոմանք օգտագործում են սեռը: Մյուսները օգտագործում են տարիքը: Եվ այսպես շարունակ։

Տարեկան 200,000 վարկերի վերանայումներից քանիսն են արվում բացասական կողմնակալության և անհավասարության ապօրինի հայացքի ներքո: Թերևս 10%-ը, որը կազմում է վարկի հարցումների մոտ 20,000-ը: Դեռ ավելի վատը, ենթադրենք, որ դա վարկի հարցումների 50%-ն է, որի դեպքում կա բավականին անհանգստացնող տարեկան 100,000 վարկային որոշումների սխալ որոշում:

Դա վատ է: Բայց մենք դեռ պետք է դիտարկենք ավելի սարսափելի հնարավորությունը:

Ենթադրենք, AI-ն ունի թաքնված կողմնակալություն, որը բաղկացած է այնպիսի գործոններից, ինչպիսիք են ռասան, սեռը, տարիքը և այլն: Եթե ​​տարեկան վարկային վերլուծությունների 10%-ը ենթարկվում է այս անճոռնիությանը, ապա մենք ունենք 900,000 վարկային հայտ, որոնք ոչ պատշաճ կերպով են մշակվում: Դա շատ ավելին է, քան այն, ինչ կարող էին անել մարդկային գործակալները, հիմնականում պայմանավորված միայն ծավալային ասպեկտներով: Այդ 100 գործակալները, եթե բոլորն ամբողջությամբ անարդար վերանայում էին անում, առավելագույնը կարող էին դա անել տարեկան 200,000 վարկի վերանայման դեպքում: AI-ն կարող է անել նույնը 9,000,000 տարեկան ակնարկների շատ մեծ մասշտաբով:

Yikes!

Սա իսկապես AI-ի կողմից ահռելի կողմնակալություն է հսկայական մասշտաբով:

Երբ անբարենպաստ կողմնակալությունները թաղվում են AI համակարգում, նույն մասշտաբը, որը ձեռնտու էր թվում, այժմ շրջվում է գլխի վրա և դառնում հրեշավոր գայթակղիչ (և անհանգստացնող) մասշտաբային արդյունք: Մի կողմից, արհեստական ​​ինտելեկտը կարող է շահավետ կերպով կարգավորել ավելի շատ մարդկանց, ովքեր տնային վարկ են պահանջում: Արտաքինից դա ահռելի է թվում AI For Good. Մենք պետք է շոյենք մեր մեջքին, որ ենթադրաբար մեծացնենք մարդկանց անհրաժեշտ վարկեր ստանալու հնարավորությունները: Միևնույն ժամանակ, եթե արհեստական ​​ինտելեկտը ներկառուցված կողմնակալություններ ունի, ապա մասշտաբը կլինի ահռելի փտած արդյունք, և մենք կհայտնվենք, որ ցավալիորեն խրված ենք AI For Bad, իսկապես զանգվածային մասշտաբով։

Առակական երկսայրի սուրը.

AI-ն կարող է արմատապես մեծացնել որոշումների կայացման հասանելիությունը նրանց համար, ովքեր փնտրում են ցանկալի ծառայություններ և ապրանքներ: Այլևս չկա աշխատուժի կողմից սահմանափակված աշխատանք: Հրաշալի! Սրի մյուս եզրն այն է, որ եթե արհեստական ​​ինտելեկտը պարունակում է այնպիսի վատություններ, ինչպիսիք են թաքնված անհավասարությունները, ապա նույն զանգվածային մասշտաբը կհրապարակի այդ անպատշաճ վարքը աներևակայելի մասշտաբով: Վրդովեցուցիչ, անիրավ, ամոթալի, և մենք չենք կարող թույլ տալ, որ հասարակությունն ընկնի նման այլանդակ անդունդ:

Յուրաքանչյուր ոք, ով տարակուսել է, թե ինչու է մենք պետք է հրաժարվենք AI-ի էթիկայի կարևորությունից, պետք է հիմա գիտակցեն, որ AI-ի մասշտաբային երևույթը էթիկական AI-ի հետամուտ լինելու անիծյալ կարևոր պատճառ է: Եկեք մի պահ հակիրճ դիտարկենք Էթիկական AI-ի հիմնական կանոններից մի քանիսը, որպեսզի ցույց տան, թե ինչ պետք է լինի կենսական ուշադրություն դարձնող ցանկացած մարդու համար, ով արհեստագործում է, զբաղվում կամ օգտագործում է AI:

Օրինակ, ինչպես նշվում է Վատիկանի կողմից Հռոմը AI-ի էթիկայի կոչ է անում և քանի որ ես խորությամբ անդրադարձել եմ հղումն այստեղ, սրանք են նրանց բացահայտված AI-ի էթիկայի վեց հիմնական սկզբունքները.

  • Թափանցիկություն. Սկզբունքորեն, AI համակարգերը պետք է բացատրելի լինեն
  • Ներառումը. Պետք է հաշվի առնել բոլոր մարդկանց կարիքները, որպեսզի բոլորը կարողանան օգուտ քաղել, և բոլոր անհատներին առաջարկել լավագույն պայմաններն ինքնադրսևորվելու և զարգանալու համար։
  • Պատասխանատվություն ` Նրանք, ովքեր նախագծում և կիրառում են AI-ի օգտագործումը, պետք է գործեն պատասխանատվությամբ և թափանցիկությամբ
  • Անաչառություն. Մի ստեղծեք կամ մի գործեք ըստ կողմնակալության՝ դրանով իսկ պաշտպանելով արդարությունն ու մարդկային արժանապատվությունը
  • հուսալիություն: AI համակարգերը պետք է կարողանան հուսալիորեն աշխատել
  • Անվտանգություն և գաղտնիություն. AI համակարգերը պետք է ապահով աշխատեն և հարգեն օգտատերերի գաղտնիությունը:

Ինչպես նշված է ԱՄՆ պաշտպանության նախարարության (DoD) կողմից իրենց Արհեստական ​​ինտելեկտի օգտագործման էթիկական սկզբունքներ և քանի որ ես խորությամբ անդրադարձել եմ հղումն այստեղ, սրանք են AI-ի նրանց վեց հիմնական էթիկայի սկզբունքները.

  • Պատասխանատու: DoD անձնակազմը կկիրառի դատողության և խնամքի համապատասխան մակարդակներ՝ միաժամանակ պատասխանատու մնալով AI կարողությունների զարգացման, տեղակայման և օգտագործման համար:
  • Արդար: Դեպարտամենտը կանխամտածված քայլեր կձեռնարկի՝ նվազագույնի հասցնելու AI կարողությունների մեջ չնախատեսված կողմնակալությունը:
  • Հետագծելի: Դեպարտամենտի AI կարողությունները կզարգացվեն և կտեղակայվեն այնպես, որ համապատասխան անձնակազմը համապատասխան պատկերացում ունենա AI-ի հնարավորությունների համար կիրառելի տեխնոլոգիայի, զարգացման գործընթացների և գործառնական մեթոդների մասին, ներառյալ թափանցիկ և աուդիտի ենթարկվող մեթոդոլոգիաները, տվյալների աղբյուրները և նախագծման ընթացակարգն ու փաստաթղթերը:
  • Վստահելի: Դեպարտամենտի արհեստական ​​ինտելեկտի հնարավորությունները կունենան հստակ, հստակորեն սահմանված կիրառումներ, և նման հնարավորությունների անվտանգությունը, անվտանգությունը և արդյունավետությունը ենթակա կլինեն փորձարկման և հավաստիացման՝ սահմանված օգտագործման շրջանակում դրանց ողջ կյանքի ընթացքում:
  • Կառավարվող. Դեպարտամենտը նախագծելու և նախագծելու է AI-ի հնարավորությունները՝ իրականացնելու իրենց նախատեսված գործառույթները՝ միաժամանակ ունենալով անցանկալի հետևանքները հայտնաբերելու և խուսափելու, ինչպես նաև չնախատեսված վարք դրսևորող տեղակայված համակարգերը անջատելու կամ անջատելու կարողություն:

Ես նաև քննարկել եմ AI էթիկայի սկզբունքների տարբեր կոլեկտիվ վերլուծություններ, ներառյալ հետազոտողների կողմից մշակված մի շարք, որոնք ուսումնասիրել և խտացրել են բազմաթիվ ազգային և միջազգային AI էթիկայի դրույթների էությունը «Արհեստական ​​ինտելեկտի էթիկայի գլոբալ լանդշաֆտը» վերնագրով հոդվածում (հրատարակված): մեջ բնություն), և որ իմ լուսաբանումն ուսումնասիրում է հղումն այստեղ, որը հանգեցրեց այս հիմնական ցուցակին.

  • Թափանցիկություն
  • Արդարություն և արդարություն
  • Ոչ չարամտություն
  • պատասխանատվություն
  • Գաղտնիության
  • Բարեգործություն
  • Ազատություն և ինքնավարություն
  • Վստահեք
  • Կայունություն
  • Արժանապատվություն
  • Համերաշխություն

Ինչպես կարող եք ուղղակիորեն կռահել, այս սկզբունքների հիմքում ընկած առանձնահատկությունները պարզելու փորձը կարող է չափազանց դժվար լինել: Առավել եւս, որ այդ լայն սկզբունքները լիովին շոշափելի և բավականաչափ մանրամասն ինչ-որ բանի վերածելու ջանքերը, որոնք կարող են օգտագործվել արհեստական ​​ինտելեկտի համակարգեր ստեղծելու ժամանակ, նույնպես դժվար է կոտրել: Հեշտ է ընդհանուր առմամբ ձեռքով պարզել, թե ինչ են AI-ի էթիկայի կանոնները և ինչպես պետք է դրանք ընդհանուր առմամբ պահպանվեն, մինչդեռ AI-ի կոդավորումը շատ ավելի բարդ իրավիճակ է, որը պետք է լինի իրական ռետինը, որը համապատասխանում է ճանապարհին:

AI-ի էթիկայի սկզբունքները պետք է օգտագործվեն արհեստական ​​ինտելեկտի մշակողների կողմից, ինչպես նաև նրանք, ովքեր ղեկավարում են AI-ի զարգացման ջանքերը, և նույնիսկ նրանք, ովքեր, ի վերջո, կիրառում և պահպանում են AI համակարգերը: Բոլոր շահագրգիռ կողմերը AI-ի զարգացման և օգտագործման ողջ կյանքի ցիկլի ընթացքում համարվում են Էթիկական AI-ի հաստատված նորմերին պահպանելու շրջանակում: Սա կարևոր կարևոր կետ է, քանի որ սովորական ենթադրությունն այն է, որ «միայն կոդավորողները» կամ նրանք, ովքեր ծրագրավորում են AI-ն, ենթակա են հավատարիմ մնալու AI-ի էթիկայի հասկացություններին: Խնդրում ենք տեղյակ լինել, որ AI մշակելու և դաշտացնելու համար անհրաժեշտ է գյուղ: Ինչի համար ամբողջ գյուղը պետք է հետևի AI-ի էթիկայի մասին:

Ինչպես է աշխատում AI-Steeped Biases Scaling-ը

Այժմ, երբ ես մտել եմ այն ​​աղյուսակը, որ AI-ն կարող է պարունակել կողմնակալություններ, մենք պատրաստ ենք ուսումնասիրել որոշ պատճառներ, թե ինչու է AI-ի մասշտաբը այդքան աներես:

Նկատի առեք տասը հիմնական պատճառների այս հիմնական ցանկը.

  1. Հեշտությամբ կրկնօրինակվում է
  2. Սանդղակի նվազագույն արժեքը
  3. Զզվելի հետևողական
  4. Ինքն արտացոլման բացակայություն
  5. Կույր հնազանդություն
  6. Ձեռքը չի թեքում
  7. Ստացողը չկասկածող
  8. Միտված է սադրանք չխրախուսելու
  9. Արդարության կեղծ աուրա
  10. Դժվար է հերքել

Ես համառոտ կուսումնասիրեմ այդ կարևոր կետերից յուրաքանչյուրը:

Երբ փորձում եք մեծացնել մարդկային աշխատանքը, հավանականությունն այն է, որ դա անելը չափազանց բարդ կլինի: Պետք է մարդկանց գտնել և աշխատանքի ընդունել։ Դուք պետք է նրանց վարժեցնեք աշխատանքը կատարելու համար: Դուք պետք է վճարեք դրանք և հաշվի առնեք մարդկային ցանկություններն ու կարիքները: Համեմատեք սա AI համակարգի հետ: Դուք զարգացնում եք այն և օգտագործում եք այն: Բացի AI-ի շարունակական պահպանման որոշակի քանակից, դուք կարող եք հանգիստ նստել և թույլ տալ, որ այն անվերջ վերամշակվի:

Սա նշանակում է, որ AI-ն հեշտությամբ կրկնօրինակվում է: Դուք կարող եք ավելացնել ավելի շատ հաշվողական հզորություն, քանի որ առաջադրանքը և ծավալը կարող են պահանջել (դուք չեք աշխատանքի ընդունում կամ աշխատանքից ազատում): Համաշխարհային օգտագործումը կատարվում է կոճակի սեղմումով և ձեռք է բերվում ինտերնետի համաշխարհային հասանելիությամբ: Մեծացումը նվազագույն ծախս է՝ համեմատած մարդկային աշխատանքի հետ նույն կերպ:

Մարդկային աշխատանքը հայտնիորեն անհամապատասխան է: Երբ ունես մեծ թիմեր, դու ունես իսկական շոկոլադե տուփ, որտեղ երբեք չգիտես, թե ինչ կարող ես ունենալ քո ձեռքերում: AI համակարգը, ամենայն հավանականությամբ, կլինի խիստ հետևողական: Այն կրկնում է նույն գործողությունները անընդհատ, ամեն անգամ, ըստ էության, նույնը, ինչ նախորդը:

Սովորաբար մենք կվայելենք AI-ի հետևողականությունը: Եթե ​​մարդիկ հակված են կողմնակալության, մենք միշտ կունենանք մեր մարդկային աշխատանքի որոշակի մասը, որը մոլորվում է: AI-ն, եթե զուտ անկողմնակալ լինի իր կառուցման և հաշվողական ջանքերի մեջ, շատ ավելի հետևողական կլիներ: Այնուամենայնիվ, խնդիրն այն է, որ եթե AI-ն ունի թաքնված կողմնակալություններ, ապա հետևողականությունն այժմ ցավալիորեն զզվելի է: Հավանականությունն այն է, որ կողմնակալ վարքագիծը շարունակաբար կիրականացվի նորից ու նորից:

Մարդիկ, հուսով ենք, կունենան ինքնամտածողության որոշակի ակնարկ և գուցե բռնեն իրենց կողմնակալ որոշումներ կայացնելիս: Ես չեմ ասում, որ բոլորն այդպես կանեն: Ես նաև չեմ ասում, որ նրանք, ովքեր բռնում են իրենց, անպայման կուղղեն իրենց սխալները: Ամեն դեպքում, գոնե որոշ մարդիկ երբեմն կուղղվեին իրենց։

AI-ն հազիվ թե ունենա հաշվողական ինքնաարտացոլման որևէ ձև: Սա նշանակում է, որ AI-ն պարզապես շարունակում է անել այն, ինչ անում է: Կարծես թե զրոյական հավանականություն կլինի, որ AI-ն հայտնաբերի, որ այն խախտում է սեփական կապիտալը: Այդպես ասվեց, ես նկարագրել եմ որոշ ջանքեր՝ կապված այս խնդրի հետ, օրինակ՝ արհեստական ​​ինտելեկտի էթիկայի բաղադրիչների կառուցումը AI-ի շրջանակներում (տես. հղումն այստեղ) և մշակել AI, որը վերահսկում է այլ AI-ի ոչ բարոյական գործողությունները (տես հղումն այստեղ).

Չունենալով ցանկացած տեսակի ինքնադրսևորում, AI-ն, ամենայն հավանականությամբ, նաև կույր հնազանդություն կունենա այն ամենին, ինչին հանձնարարվել է անել: Մարդիկ կարող են այդքան էլ հնազանդ չլինել: Հավանական է, որ որոշ մարդիկ, ովքեր կատարում են առաջադրանք, կհարցնեն, թե արդյոք նրանք առաջնորդվում են դեպի անարդարության տարածք: Նրանք հակված են մերժելու ոչ էթիկական հրամանները կամ գուցե գնալ ազդարարող ճանապարհով (տես իմ լուսաբանումը այստեղ այս հղումը Մականուն) Մի սպասեք, որ ամենօրյա ժամանակակից AI-ն ինչ-որ կերպ կասկածի տակ կդնի իր ծրագրավորումը:

Հաջորդիվ մենք դիմում ենք նրանց, ովքեր օգտագործում են AI: Եթե ​​դուք տան վարկ եք փնտրում և խոսում էիք մարդու հետ, կարող եք զգոն լինել, թե արդյոք մարդը ձեզ արդարացիորեն ցնցում է: AI համակարգ օգտագործելիս մարդկանց մեծ մասն ավելի քիչ կասկածամիտ է թվում: Նրանք հաճախ ենթադրում են, որ արհեստական ​​ինտելեկտը արդար է, և, հետևաբար, այդքան արագ չեն զայրանում: Արհեստական ​​ինտելեկտը, կարծես, հանգստացնում է մարդկանց «դա պարզապես մեքենա» տրանսի մեջ է: Ի լրումն սրա, կարող է դժվար լինել փորձել և բողոքել AI-ի դեմ: Ի հակադրություն, բողոքելը, թե ինչպես է ձեզ վերաբերվել մարդկային գործակալը, շատ ավելի հեշտ է և շատ ավելի ընդունված և ենթադրվող հնարավորինս կենսունակ:

Ընդհանուր առմամբ, AI-ն, որը թաթախված է կողմնակալության մեջ, ունի անպատվաբեր դիրք, քան նախապաշարմունքներով թաթախված մարդկանց նկատմամբ, մասնավորապես այն առումով, որ AI-ն կարող է զանգվածաբար կիրառել այդ կողմնակալությունները հսկայական մասշտաբով, դա անելով առանց հեշտությամբ բռնվելու կամ սպառողներ ունենալու: գիտակցել, թե ինչ է տեղի ունենում անհանգստացնող:

Այս քննարկման այս պահին, ես գրազ կգամ, որ դուք ցանկանում եք մի քանի լրացուցիչ օրինակներ, որոնք կարող են ցույց տալ AI-ով տիրող կողմնակալության հանելուկը մասշտաբով:

Ուրախ եմ, որ հարցրիր:

Կա հատուկ և վստահաբար սիրված օրինակների հավաքածու, որն ինձ հոգեհարազատ է: Տեսեք, որպես AI-ի փորձագետ, ներառյալ էթիկական և իրավական հետևանքները, ինձ հաճախ խնդրում են բացահայտել իրատեսական օրինակներ, որոնք ցույց են տալիս արհեստական ​​ինտելեկտի էթիկայի երկընտրանքները, որպեսզի թեմայի տեսական բնույթն ավելի հեշտությամբ ընկալվի: Ամենաոգեշնչող ոլորտներից մեկը, որը վառ կերպով ներկայացնում է այս էթիկական AI-ի խնդիրը, արհեստական ​​ինտելեկտի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելն է: Սա կծառայի որպես հարմար օգտագործման դեպք կամ օրինակ՝ թեմայի շուրջ լայն քննարկման համար:

Ահա մի ուշագրավ հարց, որի մասին արժե մտածել. Արդյո՞ք արհեստական ​​ինտելեկտի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելը որևէ բան ցույց է տալիս AI-ի սաստկացած կողմնակալության մասին, և եթե այո, ի՞նչ է սա ցույց տալիս:

Թույլ տվեք մի պահ բացել հարցը:

Նախ, նշեք, որ իրական ինքնակառավարվող մեքենայի մեջ մարդ վարորդ չկա: Հիշեք, որ իսկական ինքնակառավարվող մեքենաները վարում են AI վարորդական համակարգի միջոցով: Ղեկին մարդ վարորդի կարիք չկա, մեքենան վարելու համար մարդ չկա: Ինքնավար տրանսպորտային միջոցների (ԱՎ) և հատկապես ինքնակառավարվող մեքենաների իմ լայնածավալ և շարունակական լուսաբանման համար տե՛ս. հղումն այստեղ.

Ես կցանկանայի ավելի պարզաբանել, թե ինչ է նշանակում, երբ ես վերաբերում եմ իրական ինքնակառավարվող մեքենաներին:

Հասկանալով ինքնակառավարվող մեքենաների մակարդակները

Որպես պարզաբանում, իսկական ինքնակառավարվող մեքենաներն այն մեքենաներն են, որոնք AI- ն ամբողջովին ինքնուրույն է վարում մեքենան և մեքենայական առաջադրանքի ընթացքում մարդկային օգնություն չկա:

Այս առանց վարորդի տրանսպորտային միջոցները համարվում են 4-րդ և 5-րդ մակարդակներ (տե՛ս իմ բացատրությունը այս հղումը Մականուն), մինչդեռ մեքենան, որը մարդկային վարորդից պահանջում է համատեղ ջանքեր գործադրել, սովորաբար դիտարկվում է 2-րդ կամ 3-րդ մակարդակում: Մեքենաները, որոնք համատեղ կատարում են վարորդական առաջադրանքը, նկարագրվում են որպես կիսաինքնավար և սովորաբար պարունակում են մի շարք մեքենաներ: ավտոմատացված հավելումներ, որոնք կոչվում են ADAS (Վարորդների օգնության առաջադեմ համակարգեր):

5-րդ մակարդակում դեռ գոյություն չունի իսկական ինքնագնաց մեքենա, որը մենք դեռ չգիտենք, թե արդյոք դա հնարավոր կլինի հասնել, և ոչ էլ որքան ժամանակ կպահանջվի այնտեղ հասնելու համար:

Միևնույն ժամանակ, 4-րդ մակարդակի ջանքերը աստիճանաբար փորձում են որոշակի ձգողականություն ձեռք բերել՝ անցնելով շատ նեղ և ընտրովի հանրային ճանապարհային փորձարկումներ, թեև հակասություններ կան այն հարցի շուրջ, թե արդյոք այս թեստավորումն ինքնին պետք է թույլատրվի (մենք բոլորս փորձի մեջ կյանքի կամ մահվան ծովախոզուկներ ենք: ոմանք պնդում են, որ տեղի է ունենում մեր մայրուղիներում և ճանապարհների վրա, տես իմ լուսաբանումը այս հղումը Մականուն).

Քանի որ կիսաավտոմեքենաները մարդկային վարորդ են պահանջում, այդպիսի մեքենաների ընդունումը չի տարբերվի սովորական տրանսպորտային միջոցներից վարվելուց, հետևաբար, այս թեմայի շուրջ դրանց մասին ծածկելու համար ամենևին էլ նոր բան չկա (չնայած, ինչպես կտեսնեք մի ակնթարթում ընդհանուր առմամբ կիրառվում են հաջորդ կետերը):

Կիսաանվտանգ ավտոմեքենաների համար կարևոր է, որ հասարակությունը պետք է նախազգուշացվի վերջին շրջանում ի հայտ եկած անհանգստացնող կողմի մասին, մասնավորապես այն, որ չնայած այն մարդկային վարորդներին, ովքեր շարունակում են փակցնել իրենց տեսահոլովակները իրենց մասին, քնում են «Level 2» կամ «Level 3» մեքենայի ղեկին: , մենք բոլորս պետք է խուսափենք ապակողմնորոշվելուց `հավատալով, որ վարորդը կարող է իրենց ուշադրությունը հանել վարորդական առաջադրանքից` կիսաավտոմեքենան վարելիս:

Դուք պատասխանատու կողմն եք տրանսպորտային միջոցի վարման գործողությունների համար, անկախ նրանից, թե որ ավտոմատացումը կարող է տեղափոխվել 2-րդ մակարդակի կամ 3-րդ մակարդակի:

Ինքնավար մեքենաներ և արհեստական ​​ինտելեկտի կողմնակալություն մասշտաբով

4-րդ և 5-րդ մակարդակների իսկական ինքնագնաց տրանսպորտային միջոցների համար վարորդական գործին չի մասնակցի մարդկային վարորդ:

Բոլոր գրավյալները ուղևորներ են լինելու:

AI- ն վարում է վարումը:

Անմիջապես քննարկելու մի ասպեկտ ենթադրում է այն փաստը, որ այսօր AI- ի վարման համակարգերում ներգրավված AI- ն զգայուն չէ: Այլ կերպ ասած, AI- ն ընդհանուր առմամբ համակարգչային ծրագրավորման և ալգորիթմների հավաքածու է, և, անկասկած, ի վիճակի չէ տրամաբանել այնպես, ինչպես մարդիկ կարող են:

Ինչու՞ է այս հավելյալ շեշտադրումը արհեստական ​​ինտելեկտի մասին զգացմունքային չէ:

Քանի որ ես ուզում եմ ընդգծել, որ երբ քննարկում եմ AI շարժիչ համակարգի դերը, ես մարդկային որակներ չեմ վերագրում AI- ին: Խնդրում ենք տեղյակ լինել, որ այս օրերին շարունակական և վտանգավոր միտում կա AI- ն մարդաբանելու համար: Ըստ էության, մարդիկ մարդկային նման զգացողություն են հատկացնում այսօրվա AI- ին, չնայած անհերքելի և անառարկելի փաստին, որ այդպիսի AI դեռ գոյություն չունի:

Այդ պարզաբանմամբ դուք կարող եք պատկերացնել, որ AI վարելու համակարգը բնիկ ինչ-որ կերպ «չի իմանա» վարման կողմերի մասին: Վարորդությունն ու դրա հետևանքները պետք է ծրագրավորվեն որպես ինքնակառավարվող մեքենայի սարքավորումների և ծրագրակազմի մաս:

Եկեք սուզվենք այն անհամար ասպեկտների մեջ, որոնք սկսում են խաղալ այս թեմայի շուրջ:

Նախ, կարևոր է գիտակցել, որ ոչ բոլոր ինքնակառավարվող AI մեքենաները նույնն են: Յուրաքանչյուր ավտոարտադրող և ինքնակառավարվող տեխնոլոգիական ընկերություն իր մոտեցումն է ցուցաբերում ինքնակառավարվող մեքենաների ստեղծման հարցում: Որպես այդպիսին, դժվար է լայնածավալ հայտարարություններ անել այն մասին, թե ինչ կանեն կամ չեն անեն AI վարորդական համակարգերը:

Ավելին, ամեն անգամ, երբ նշվում է, որ արհեստական ​​ինտելեկտի կառավարման համակարգը որոշակի բան չի անում, դա հետագայում կարող է շրջանցվել այն մշակողների կողմից, որոնք իրականում ծրագրավորում են համակարգիչը հենց դա անելու համար: Քայլ առ քայլ, արհեստական ​​ինտելեկտի շարժիչ համակարգերը աստիճանաբար բարելավվում և ընդլայնվում են: Այսօր գոյություն ունեցող սահմանափակումն այլևս գոյություն չի ունենա համակարգի ապագա կրկնության կամ տարբերակի դեպքում:

Հավատում եմ, որ բավականաչափ նախազգուշացում է ապահովում ՝ հիմք դնելու այն, ինչի մասին ես պատրաստվում եմ պատմել:

Այժմ մենք պատրաստ ենք խորը սուզվել ինքնակառավարվող մեքենաների և էթիկական AI-ի հնարավորությունների մեջ, որոնք ենթադրում են AI-ի վրա տիրող կողմնակալության ուսումնասիրություն, որոնք տարածվում են լայն մասշտաբով:

Եկեք օգտագործենք պարզ օրինակ: AI-ի վրա հիմնված ինքնակառավարվող մեքենան ընթանում է ձեր թաղամասի փողոցներում և կարծես թե ապահով է վարում: Սկզբում դուք հատուկ ուշադրություն էիք հատկացրել ամեն անգամ, երբ ձեզ հաջողվում էր հայացք նետել ինքնակառավարվող մեքենային։ Ինքնավար մեքենան աչքի էր ընկնում իր էլեկտրոնային սենսորների դարակով, որը ներառում էր տեսախցիկներ, ռադարային միավորներ, LIDAR սարքեր և այլն: Շատ շաբաթներ անց, երբ ինքնակառավարվող մեքենան շրջում էր ձեր համայնքում, դուք հիմա դա հազիվ եք նկատել: Ինչ վերաբերում է ձեզ, դա պարզապես հերթական մեքենան է առանց այն էլ բանուկ հանրային ճանապարհների վրա:

Որպեսզի չմտածեք, որ անհնար է կամ անհավանական է ծանոթանալ ինքնակառավարվող մեքենաներին, ես հաճախ եմ գրել այն մասին, թե ինչպես են այն վայրերը, որոնք գտնվում են ինքնակառավարվող մեքենաների փորձարկումների շրջանակում, աստիճանաբար ընտելացել են տեսնել երեսպատված մեքենաները: տես իմ վերլուծությունը այս հղումը Մականուն. Տեղի բնակիչներից շատերը, ի վերջո, անցան բերանից բացվող հառաչանքից դեպի այժմ արտանետելով ձանձրույթի լայնածավալ հորանջ՝ ականատես լինելու այդ ոլորապտույտ ինքնակառավարվող մեքենաներին:

Հավանաբար, հենց հիմա հիմնական պատճառը, որ նրանք կարող են նկատել ինքնավար մեքենաները, գրգռվածության և զայրույթի գործոնն է: AI վարորդական համակարգերը երաշխավորում են, որ մեքենաները ենթարկվում են արագության բոլոր սահմանափակումներին և ճանապարհային կանոններին: Իրենց ավանդական մարդկանց կողմից վարվող մեքենաներով բուռն մարդ վարորդների համար դուք զայրանում եք այն ժամանակ, երբ մնում եք խստորեն օրինապահ AI-ի վրա հիմնված ինքնակառավարվող մեքենաների հետևում:

Դա մի բան է, որին մենք բոլորս պետք է սովորենք՝ իրավացիորեն կամ սխալ կերպով:

Վերադարձ դեպի մեր հեքիաթը։

Պարզվում է, որ երկու անտեղի մտահոգություններ են սկսում առաջանալ այլապես անվնաս և ընդհանուր առմամբ ողջունելի AI-ի վրա հիմնված ինքնակառավարվող մեքենաների վերաբերյալ, մասնավորապես.

ա. Այնտեղ, որտեղ արհեստական ​​ինտելեկտը թափառում է ինքնակառավարվող մեքենաները՝ ուղևորություններ վերցնելու համար, մտահոգիչ էր

բ. Ինչպես է արհեստական ​​ինտելեկտը վերաբերվում սպասող հետիոտներին, որոնք ճանապարհի իրավունք չունեն, հրատապ խնդիր էր:

Սկզբում AI-ն շրջում էր ինքնակառավարվող մեքենաներով ամբողջ քաղաքում: Յուրաքանչյուր ոք, ով ցանկանում էր ինքնակառավարվող մեքենայով վարել, ըստ էության հավասար հնարավորություններ ուներ: Աստիճանաբար, AI-ն սկսեց հիմնականում պահել ինքնակառավարվող մեքենաները ռոումինգում քաղաքի միայն մեկ հատվածում: Այս բաժինը ավելի մեծ գումար էր վաստակում, և AI համակարգը ծրագրված էր փորձել և առավելագույնի հասցնել եկամուտները՝ որպես համայնքում օգտագործման մաս:

Քաղաքի աղքատ հատվածներում գտնվող համայնքի անդամներն ավելի քիչ հավանական է, որ կարողանան երթևեկել ինքնակառավարվող մեքենայով: Դա պայմանավորված էր նրանով, որ ինքնակառավարվող մեքենաները ավելի հեռու էին և թափառում էին տեղանքի ավելի բարձր եկամուտ ունեցող հատվածում: Երբ հարցումը գալիս էր քաղաքի հեռավոր հատվածից, ցանկացած հարցում ավելի մոտ վայրից, որը հավանաբար քաղաքի «հարգելի» մասում էր, ավելի առաջնահերթություն կստանար: Ի վերջո, ինքնակառավարվող մեքենա ձեռք բերելը ցանկացած վայրում, բացի քաղաքի ավելի հարուստ հատվածից, գրեթե անհնարին էր, ինչը սարսափելի էր նրանց համար, ովքեր ապրում էին այժմ ռեսուրսներով լի տարածքներում:

Դուք կարող եք պնդել, որ արհեստական ​​ինտելեկտը հիմնականում իջել է վստահված անձի խտրականության ձևի վրա (նաև հաճախ կոչվում է անուղղակի խտրականություն): Արհեստական ​​ինտելեկտը ծրագրավորված չէր այդ աղքատ թաղամասերից խուսափելու համար: Փոխարենը, այն «սովորեց» դա անել ML/DL-ի օգտագործման միջոցով:

Բանն այն է, որ մարդատար վարորդները հայտնի էին նրանով, որ անում էին նույն բանը, թեև պարտադիր չէ, որ բացառապես փող աշխատելու տեսանկյունից: Կային մի քանի մարդ վարորդներ, ովքեր անբարենպաստ կողմնակալություն ունեին քաղաքի որոշ հատվածներից հեծյալներ վերցնելու հարցում: Սա ինչ-որ չափով հայտնի երևույթ էր, և քաղաքը մոնիտորինգի մոտեցում էր կիրառել՝ բռնելու մարդկանց վարորդներին, ովքեր դա անում էին: Մարդ վարորդները կարող են դժվարության մեջ ընկնել ընտրության անբարենպաստ պրակտիկա իրականացնելու համար:

Ենթադրվում էր, որ արհեստական ​​ինտելեկտը երբեք չի ընկնի նույն տեսակի շարժվող ավազի մեջ: Ոչ մի մասնագիտացված մոնիտորինգ չի ստեղծվել՝ հետևելու, թե ուր են գնում AI-ի վրա հիմնված ինքնակառավարվող մեքենաները: Միայն այն բանից հետո, երբ համայնքի անդամները սկսեցին բողոքել, քաղաքի ղեկավարները հասկացան, թե ինչ է կատարվում: Այս տեսակի համաքաղաքային խնդիրների մասին ավելին իմանալու համար, որոնք պատրաստվում են ներկայացնել ինքնավար տրանսպորտային միջոցները և ինքնակառավարվող մեքենաները, տես իմ լուսաբանումը այստեղ. այս հղումը Մականուն և որը նկարագրում է Հարվարդի կողմից իրականացված ուսումնասիրությունը, որը ես համահեղինակել եմ թեմայի շուրջ:

AI-ի վրա հիմնված ինքնակառավարվող մեքենաների ռոումինգի այս օրինակը ցույց է տալիս ավելի վաղ ցուցմունքը, որ կարող են լինել իրավիճակներ, որոնք հանգեցնում են մարդկանց անբարենպաստ կողմնակալության, որոնց համար սահմանված են հսկողություն, և որ AI-ն, որը փոխարինում է այդ մարդկանց վարորդներին, մնում է Շոտլանդիայում: անվճար. Ցավոք, արհեստական ​​ինտելեկտը կարող է աստիճանաբար ընկղմվել նման կողմնակալության մեջ և դա անել առանց տեղում տեղադրված բավարար պահակակետերի:

Սա նաև ցույց է տալիս AI-ի խիստ կողմնակալությունը մասշտաբի հարցում:

Մարդկանց վարորդների դեպքում մենք կարող էինք ունենալ մի քանիսը այստեղ կամ այնտեղ, որոնք ինչ-որ անարդարության ձև էին իրականացնում: Արհեստական ​​ինտելեկտի վարման համակարգի համար դա սովորաբար նման միասնական AI է ինքնակառավարվող մեքենաների ամբողջ պարկի համար: Այսպիսով, մենք կարող էինք սկսել քաղաքում, ասենք, հիսուն ինքնակառավարվող մեքենաներով (բոլորն էլ կառավարվում են նույն AI կոդով), և աստիճանաբար ավելացրինք մինչև ասենք 500 ինքնակառավարվող մեքենա (բոլորն էլ աշխատում են նույն AI կոդով): Քանի որ բոլոր այդ հինգ հարյուր ինքնակառավարվող մեքենաները ղեկավարվում են միևնույն AI-ի միջոցով, դրանք համապատասխանաբար բոլորն էլ ենթակա են նույն ածանցյալ կողմնակալության և անհավասարության, որոնք ներկառուցված են AI-ի ներսում:

Սանդղակը մեզ ցավ է պատճառում այդ առումով։

Երկրորդ օրինակը ներառում է AI-ի որոշումը, թե արդյոք կանգ առնել սպասող հետիոտների համար, որոնք չունեն ճանապարհ անցնելու իրավունք:

Դուք, անկասկած, մեքենա եք վարել և հանդիպել եք հետիոտների, որոնք սպասում էին անցնելու փողոցը, բայց նրանք երթևեկության իրավունք չունեին դրա համար: Սա նշանակում էր, որ դուք հայեցողություն ունեիք՝ կանգ առնելու և թույլ տալ, որ նրանք անցնեն: Դուք կարող եք շարունակել՝ չթողնելով, որ նրանք անցնեն և դեռևս լիովին լինեք դա անելու օրինական վարորդական կանոնների մեջ:

Ուսումնասիրությունները, թե ինչպես են մարդիկ որոշում կայացնում նման հետիոտների համար կանգ առնել կամ չկանգնեցնելու մասին, ցույց են տվել, որ երբեմն մարդիկ վարորդներն ընտրություն են կատարում՝ ելնելով անբարենպաստ կողմնակալությունից: Մարդ վարորդը կարող է նայել հետիոտնին և որոշել կանգ չառնել, թեև նրանք կանգ կառնեին, եթե հետիոտն այլ տեսք ունենար, օրինակ՝ ռասայից կամ սեռից: Ես ուսումնասիրել եմ սա հղումն այստեղ.

Պատկերացրեք, որ արհեստական ​​ինտելեկտի վրա հիմնված ինքնակառավարվող մեքենաները ծրագրված են լուծելու այն հարցը, թե կանգնե՞լ, թե՞ չկանգնել այն հետիոտների համար, ովքեր երթևեկության իրավունք չունեն: Ահա թե ինչպես են AI ծրագրավորողները որոշել ծրագրավորել այս առաջադրանքը. Նրանք հավաքել են տվյալներ քաղաքի տեսախցիկներից, որոնք տեղադրված են ամբողջ քաղաքում: Տվյալները ցույց են տալիս մարդկանց վարորդներին, որոնք կանգ են առնում հետիոտների համար, ովքեր ճանապարհի իրավունք չունեն, և մարդ վարորդներին, որոնք կանգ չեն առնում: Այդ ամենը հավաքված է մեծ տվյալների բազայում:

Օգտագործելով մեքենայական ուսուցումը և խորը ուսուցումը, տվյալները մոդելավորվում են հաշվողական եղանակով: AI վարորդական համակարգը այնուհետև օգտագործում է այս մոդելը՝ որոշելու, թե երբ կանգ առնել կամ չկանգնել: Ընդհանուր առմամբ, գաղափարն այն է, որ ինչից էլ բաղկացած է տեղական սովորույթը, այսպես է AI-ն ուղղորդում ինքնակառավարվող մեքենան:

Ի զարմանս քաղաքի ղեկավարների և բնակիչների, AI-ն ակնհայտորեն նախընտրում էր կանգ առնել կամ չկանգնել՝ ելնելով հետիոտնի արտաքինից, ներառյալ նրանց ռասայից և սեռից: Ինքնավար մեքենայի սենսորները կսկանավորեն սպասող հետիոտնին, այս տվյալները կներառեն ML/DL մոդելի մեջ, և մոդելը կթողարկի AI-ին՝ կանգ առնել, թե շարունակել: Ցավոք սրտի, քաղաքն արդեն ուներ բազմաթիվ մարդկային վարորդների կողմնակալություն այս առումով, և AI-ն այժմ կրկնօրինակում էր նույնը:

Այս օրինակը ցույց է տալիս, որ արհեստական ​​ինտելեկտի համակարգը կարող է պարզապես կրկնօրինակել մարդկանց արդեն իսկ գոյություն ունեցող անբարենպաստ կողմնակալությունները: Ավելին, դա անում է մասշտաբով: Ցանկացած մարդ վարորդի կարող է երբեմն սովորեցնել անել ընտրության այս անբարենպաստ ձևը, կամ գուցե անձամբ ընտրվել է դա անելու համար, բայց հավանականությունը մեծ է, որ մարդ վարորդների մեծ մասը, հավանաբար, դա չի անում զանգվածաբար:

Ի հակադրություն, AI վարորդական համակարգը, որն օգտագործվում է ինքնակառավարվող մեքենաներ վարելու համար, ամենայն հավանականությամբ, զզվելի հետևողականորեն և վստահաբար կկատարի ածանցյալ կողմնակալությունը:

Եզրափակում

Բազմաթիվ եղանակներ կան՝ փորձելով խուսափել արհեստական ​​ինտելեկտի մշակումից, որն ունի անբարենպաստ կողմնակալություն կամ որը ժամանակի ընթացքում առաջ է բերում կողմնակալություն: Ինչքան հնարավոր է, գաղափարն այն է, որ հայտնաբերեք խնդիրները, նախքան բարձր հանդերձանքով շարժվելը և թեքահարթակ բարձրանալը: Հուսանք, որ կողմնակալությունները, այսպես ասած, դռնից դուրս չեն գա:

Թեև ենթադրենք, որ այս կամ այն ​​կերպ կողմնակալություններ կառաջանան AI-ում: Երբ դուք տեղակայվեք զանգվածային ինտելեկտի միջոցով, դուք չեք կարող պարզապես կատարել այն հաճախ հռչակված տեխնոլոգիական «կրակել և մոռանալ» հասկացություններից մեկը: Դուք պետք է ջանասիրաբար հետևեք այն ամենին, ինչ անում է AI-ն և ձգտեք հայտնաբերել ցանկացած անբարենպաստ կողմնակալություն, որը պետք է շտկվի:

Ինչպես նշվեց ավելի վաղ, մոտեցումներից մեկը ներառում է ապահովել, որ AI ծրագրավորողները տեղյակ են AI-ի էթիկայի մասին և այդպիսով խրախուսել նրանց ծրագրավորել AI-ն՝ կանխելու այդ խնդիրները: Մեկ այլ ճանապարհ բաղկացած է ոչ էթիկական վարքագծի համար AI-ի ինքնավերահսկողությունից և/կամ ունենալով AI-ի մեկ այլ մաս, որը վերահսկում է AI-ի այլ համակարգերը պոտենցիալ ոչ բարոյական վարքագծի համար: Ես իմ գրվածքներում անդրադարձել եմ բազմաթիվ այլ հնարավոր լուծումների:

Վերջնական միտք առայժմ. Այս քննարկումը սկսելով Պլատոնի մեջբերումով, կարող է տեղին լինել զրույցը փակել Պլատոնի ևս մեկ խորամանկ արտասանությամբ:

Պլատոնը հայտարարեց, որ լավ բան կրկնելը վնաս չունի։

Արհեստական ​​ինտելեկտի հետ մասշտաբով գնալու հեշտությունը, անշուշտ, կենսունակ միջոց է նման լավատեսական ձգտումներ ձեռք բերելու համար, երբ AI-ն պատկանում է AI For Good բազմազանություն. Մենք սիրում ենք մի լավ բան կրկնել: Երբ AI-ն է AI For Bad և լցված անբարենպաստ կողմնակալություններով և անհավասարություններով, մենք կարող ենք հենվել Պլատոնի դիտողությունների վրա և ասել, որ վատ բան կրկնելը մեծ վնաս է պատճառում:

Եկեք ուշադիր լսենք Պլատոնի իմաստուն խոսքերը և համապատասխանաբար մշակենք մեր AI-ն:

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- գլոբալ մասշտաբով-հատկապես-սնուցված-վայելող-լրիվ-ինքնավար-համակարգերի/