AI-ի էթիկան ասում է, որ AI-ն պետք է հատկապես գործածվի, երբ մարդկային կողմնակալությունները շատ են

Մարդիկ պետք է իմանան իրենց սահմանափակումները:

Դուք կարող եք հիշել նման հայտնի տողը մեր սահմանափակումների իմացության մասին, ինչպես դաժանորեն արտասանել է Կեղտոտ Հարրին կերպարը 1973 թվականին վերնագրված ֆիլմում. Magnum Force (ըստ դերասան Քլինթ Իսթվուդի՝ տեսուչ Հարրի Քալահանի հիշարժան դերում): Ընդհանուր պատկերացումն այն է, որ երբեմն մենք հակված ենք անտեսել մեր սահմանները և համապատասխանաբար տաք ջրի մեջ մտնել: Անկախ նրանից, թե ամբարտավանության, եսակենտրոն լինելու կամ պարզապես մեր հնարավորությունների հանդեպ կույր լինելու պատճառով, մեր հակումները և թերությունները գիտակցելու և բացահայտորեն հաշվի առնելու սկզբունքը շատ խելամիտ և օգտակար է:

Եկեք մի նոր շրջադարձ ավելացնենք իմաստունի խորհրդին:

Արհեստական ​​ինտելեկտը (AI) պետք է իմանա իր սահմանափակումները.

Ի՞նչ նկատի ունեմ հարգված խոսքի այդ տարբերակով:

Պարզվում է, որ ժամանակակից արհեստական ​​ինտելեկտը որպես աշխարհի խնդիրների հուսադրող լուծող օգտագործելու սկզբնական շտապողականությունը խեղաթյուրվել է և ամբողջովին ցեխոտվել՝ գիտակցելով, որ այսօրվա AI-ն ունի բավականին լուրջ սահմանափակումներ: Մենք գնացինք բարձրացնող վերնագրերից AI For Good և գնալով ավելի ենք խրվել մեր մեջ AI For Bad. Տեսեք, արհեստական ​​ինտելեկտի բազմաթիվ համակարգեր մշակվել և գործարկվել են ամենատարբեր տեսակի անբարոյական ռասայական և գենդերային կողմնակալությամբ, ինչպես նաև բազմաթիվ այլ նման սարսափելի անհավասարություններով:

AI-ի էթիկայի և էթիկական AI-ի իմ լայնածավալ և շարունակական լուսաբանման համար տե՛ս հղումն այստեղ և հղումն այստեղ, պարզապես մի քանի անուն:

Այս արհեստական ​​ինտելեկտի համակարգերում հայտնաբերված կողմնակալությունները, եթե ասենք, «դիտավորյալ» տիպի չեն, որը մենք կվերագրենք մարդկային վարքագծին: Ես սա նշում եմ՝ ընդգծելու համար, որ այսօրվա AI-ն զգայուն չէ: Չնայած այն աղմկահարույց վերնագրերին, որոնք այլ բան են հուշում, պարզապես ոչ մի տեղ չկա որևէ AI, որը նույնիսկ մոտ է զգացողությանը: Բացի այդ, մենք չգիտենք, թե ինչպես մտցնել AI-ն զգայունության բրա մեջ, գումարած, ոչ ոք չի կարող հստակ ասել, թե արդյոք մենք երբևէ կհասնենք AI զգացողության: Միգուցե դա մի օր տեղի ունենա, կամ գուցե ոչ:

Այսպիսով, իմ միտքն այն է, որ մենք չենք կարող առանձնապես մտադրություն վերագրել այն տեսակի AI-ին, որը մենք ներկայումս ունենք: Այսպես ասած, մենք կարող ենք առատորեն նպատակադրել նրանց, ովքեր արհեստագործական AI համակարգեր են ստեղծում: AI որոշ մշակողներ չգիտեն այն փաստի մասին, որ նրանք ստեղծել են AI համակարգ, որը պարունակում է տհաճ և, հնարավոր է, անօրինական կողմնակալություններ: Միևնույն ժամանակ, AI-ի այլ մշակողները գիտակցում են, որ իրենք կողմնակալություններ են ներծծում իրենց AI համակարգերում՝ պոտենցիալ դա անում են նպատակային սխալ գործելակերպով:

Ամեն դեպքում, արդյունքը, այնուամենայնիվ, դեռևս անճոռնի է և, հավանաբար, անօրինական:

Կատարվում են լուրջ ջանքեր՝ AI-ի էթիկայի սկզբունքները հրապարակելու համար, որոնք կլուսավորեն AI ծրագրավորողներին և համապատասխան ուղեցույց կտրամադրեն՝ զերծ մնալու իրենց AI համակարգերում կողմնակալություններից: Սա կօգնի երկուսով: Նախ, արհեստական ​​արհեստական ​​ինտելեկտով արհեստավորներն այլևս չեն ունենա պատրաստի պատրվակ, որ նրանք պարզապես չգիտեին, թե ինչ ցուցումներ է պետք հետևել: Երկրորդ, նրանք, ովքեր շեղվում են Էթիկական AI-ի պայմաններից, ավելի հեշտությամբ կբռնվեն և կցուցադրվեն որպես կանխող այն, ինչը նրանց նախազգուշացրել էին և՛ անել, և՛ չանել:

Եկեք մի պահ հակիրճ քննարկենք Էթիկական AI-ի հիմնական կանոնները՝ ցույց տալու համար, թե ինչի մասին պետք է մտածեն և խստորեն ձեռնարկեն AI-ի էթիկայի դիրքորոշումը AI ստեղծողները:

Ինչպես նշվում է Վատիկանի կողմից Հռոմը AI-ի էթիկայի կոչ է անում և քանի որ ես խորությամբ անդրադարձել եմ հղումն այստեղ, սրանք են նրանց բացահայտված AI-ի էթիկայի վեց հիմնական սկզբունքները.

  • Թափանցիկություն. Սկզբունքորեն, AI համակարգերը պետք է բացատրելի լինեն
  • Ներառումը. Պետք է հաշվի առնել բոլոր մարդկանց կարիքները, որպեսզի բոլորը կարողանան օգուտ քաղել, և բոլոր անհատներին առաջարկել լավագույն պայմաններն ինքնադրսևորվելու և զարգանալու համար։
  • Պատասխանատվություն ` Նրանք, ովքեր նախագծում և կիրառում են AI-ի օգտագործումը, պետք է գործեն պատասխանատվությամբ և թափանցիկությամբ
  • Անաչառություն. Մի ստեղծեք կամ մի գործեք ըստ կողմնակալության՝ դրանով իսկ պաշտպանելով արդարությունն ու մարդկային արժանապատվությունը
  • հուսալիություն: AI համակարգերը պետք է կարողանան հուսալիորեն աշխատել
  • Անվտանգություն և գաղտնիություն. AI համակարգերը պետք է ապահով աշխատեն և հարգեն օգտատերերի գաղտնիությունը:

Ինչպես նշված է ԱՄՆ պաշտպանության նախարարության (DoD) կողմից իրենց Արհեստական ​​ինտելեկտի օգտագործման էթիկական սկզբունքներ և քանի որ ես խորությամբ անդրադարձել եմ հղումն այստեղ, սրանք են AI-ի նրանց վեց հիմնական էթիկայի սկզբունքները.

  • Պատասխանատու: DoD անձնակազմը կկիրառի դատողության և խնամքի համապատասխան մակարդակներ՝ միաժամանակ պատասխանատու մնալով AI կարողությունների զարգացման, տեղակայման և օգտագործման համար:
  • Արդար: Դեպարտամենտը կանխամտածված քայլեր կձեռնարկի՝ նվազագույնի հասցնելու AI կարողությունների մեջ չնախատեսված կողմնակալությունը:
  • Հետագծելի: Դեպարտամենտի AI կարողությունները կզարգացվեն և կտեղակայվեն այնպես, որ համապատասխան անձնակազմը համապատասխան պատկերացում ունենա AI-ի հնարավորությունների համար կիրառելի տեխնոլոգիայի, զարգացման գործընթացների և գործառնական մեթոդների մասին, ներառյալ թափանցիկ և աուդիտի ենթարկվող մեթոդոլոգիաները, տվյալների աղբյուրները և նախագծման ընթացակարգն ու փաստաթղթերը:
  • Վստահելի: Դեպարտամենտի արհեստական ​​ինտելեկտի հնարավորությունները կունենան հստակ, հստակորեն սահմանված կիրառումներ, և նման հնարավորությունների անվտանգությունը, անվտանգությունը և արդյունավետությունը ենթակա կլինեն փորձարկման և հավաստիացման՝ սահմանված օգտագործման շրջանակում դրանց ողջ կյանքի ընթացքում:
  • Կառավարվող. Դեպարտամենտը նախագծելու և նախագծելու է AI-ի հնարավորությունները՝ իրականացնելու իրենց նախատեսված գործառույթները՝ միաժամանակ ունենալով անցանկալի հետևանքները հայտնաբերելու և խուսափելու, ինչպես նաև չնախատեսված վարք դրսևորող տեղակայված համակարգերը անջատելու կամ անջատելու կարողություն:

Ես նաև քննարկել եմ AI էթիկայի սկզբունքների տարբեր կոլեկտիվ վերլուծություններ, ներառյալ հետազոտողների կողմից մշակված մի շարք, որոնք ուսումնասիրել և խտացրել են բազմաթիվ ազգային և միջազգային AI էթիկայի դրույթների էությունը «Արհեստական ​​ինտելեկտի էթիկայի գլոբալ լանդշաֆտը» վերնագրով հոդվածում (հրատարակված): մեջ բնություն), և որ իմ լուսաբանումն ուսումնասիրում է հղումն այստեղ, որը հանգեցրեց այս հիմնական ցուցակին.

  • Թափանցիկություն
  • Արդարություն և արդարություն
  • Ոչ չարամտություն
  • պատասխանատվություն
  • Գաղտնիության
  • Բարեգործություն
  • Ազատություն և ինքնավարություն
  • Վստահեք
  • Կայունություն
  • Արժանապատվություն
  • Համերաշխություն

Ինչպես կարող եք ուղղակիորեն կռահել, այս սկզբունքների հիմքում ընկած առանձնահատկությունները պարզելու փորձը կարող է չափազանց դժվար լինել: Առավել եւս, որ այդ լայն սկզբունքները լիովին շոշափելի և բավականաչափ մանրամասն ինչ-որ բանի վերածելու ջանքերը, որոնք կարող են օգտագործվել արհեստական ​​ինտելեկտի համակարգեր ստեղծելու ժամանակ, նույնպես դժվար է կոտրել: Հեշտ է ընդհանուր առմամբ ձեռքով պարզել, թե ինչ են AI-ի էթիկայի կանոնները և ինչպես պետք է դրանք ընդհանուր առմամբ պահպանվեն, մինչդեռ AI-ի կոդավորումը շատ ավելի բարդ իրավիճակ է, որը պետք է լինի իրական ռետինը, որը համապատասխանում է ճանապարհին:

AI-ի էթիկայի սկզբունքները պետք է օգտագործվեն արհեստական ​​ինտելեկտի մշակողների կողմից, ինչպես նաև նրանք, ովքեր ղեկավարում են AI-ի զարգացման ջանքերը, և նույնիսկ նրանք, ովքեր, ի վերջո, կիրառում և պահպանում են AI համակարգերը: Բոլոր շահագրգիռ կողմերը AI-ի զարգացման և օգտագործման ողջ կյանքի ցիկլի ընթացքում համարվում են Էթիկական AI-ի հաստատված նորմերին պահպանելու շրջանակում: Սա կարևոր կարևոր կետ է, քանի որ սովորական ենթադրությունն այն է, որ «միայն կոդավորողները» կամ նրանք, ովքեր ծրագրավորում են AI-ն, ենթակա են հավատարիմ մնալու AI-ի էթիկայի հասկացություններին: Խնդրում ենք տեղյակ լինել, որ AI մշակելու և դաշտացնելու համար անհրաժեշտ է գյուղ: Ինչի համար ամբողջ գյուղը պետք է հետևի AI-ի էթիկայի մասին:

Ինչևէ, հիմա, երբ ես մտել եմ սեղանին, որ AI-ն կարող է պարունակել կողմնակալություններ, մենք, հավանաբար, բոլորս կարող ենք համաձայնվել այս երկու ակնհայտ փաստերի հետ.

1. Մարդիկ կարող են ունենալ բազմաթիվ անբարենպաստ կողմնակալություններ և կարող են գործել դրանց հիման վրա

2. AI-ն կարող է ունենալ բազմաթիվ անբարենպաստ կողմնակալություններ և կարող է գործել այդ կողմնակալության վրա

Ես ինչ-որ չափով ատում եմ մարդկանց AI-ի դեմ շարել այդ համատեքստում, քանի որ դա ինչ-որ կերպ կարող է ենթադրել, որ AI-ն ունի մարդկանց զգալի կարողություններ: Սա, անշուշտ, այդպես չէ: Այս քննարկման ընթացքում ես մի փոքր ուշ կանդրադառնամ AI-ի մարդակերպության վերաբերյալ աճող մտահոգություններին:

Ո՞րն է ավելի վատ՝ մարդիկ, որոնք ցուցաբերում են անբարենպաստ կողմնակալություն, թե՞ AI, որն այդպես է վարվում:

Ես համարձակվում եմ ասել, որ հարցը դնում է այդ կեղծ ընտրություններից մեկը: Դա երկու չարիքի փոքրագույն ասացվածքն է, կարելի է պնդել: Մենք կցանկանայինք, որ մարդիկ չմարմնավորեին անբարենպաստ կողմնակալություն: Մենք նաև կցանկանայինք, որ նույնիսկ եթե մարդիկ ունեն անբարենպաստ կողմնակալություն, նրանք չգործեն այդ կողմնակալության վրա: Նույնը կարելի է տեղին ասել AI-ի մասին: Մենք կցանկանայինք, որ AI-ն չներառեր անբարենպաստ կողմնակալություններ, և եթե նույնիսկ կան ներքին կոդավորված կողմնակալություններ, որ AI-ն գոնե չգործեր դրանց վրա:

Ցանկությունները, սակայն, պարտադիր չէ, որ ղեկավարեն աշխարհը (այսպես կոչվածի աճող և անհանգստացնող տեսքի իմ վերլուծության համար. AI ցանկությունների իրականացում ընդհանուր հասարակության կողմից, տես հղումն այստեղ).

Լավ, մենք ակնհայտորեն ցանկանում ենք, որ մարդիկ իմանան իրենց սահմանափակումները: Կարևոր է հասկանալ, երբ դուք ունեք անբարենպաստ կողմնակալություններ: Նույնքան կարևոր է, որ փորձեք կանխել այդ անբարենպաստ կողմնակալությունները ձեր գործողությունների և որոշումների մեջ: Գործարարներն այսօր փորձում են բոլոր տեսակի մոտեցումները՝ իրենց աշխատակիցներին զերծ պահելու անբարենպաստ կողմնակալության սարսափելի որոգայթների մեջ ընկնելուց: Մասնագիտացված ուսուցում է անցկացվում աշխատակիցներին այն մասին, թե ինչպես պետք է կատարեն իրենց աշխատանքը էթիկապես առողջ ձևերով: Գործընթացները ձևավորվում են աշխատակիցների շուրջ, որպեսզի զգուշացնեն նրանց, երբ թվում է, թե նրանք ցուցադրում են ոչ բարոյական բարքեր: Եվ այսպես շարունակ։

Մարդկանց և նրանց անբարենպաստ կողմնակալության դեմ պայքարելու մեկ այլ միջոց կլինի մարդկանց վրա հիմնված աշխատանքի ավտոմատացումը: Այո, պարզապես հեռացնել մարդուն օղակից: Թույլ մի տվեք, որ մարդը կատարի որոշումներ կայացնելու խնդիր, և դուք, հավանաբար, այլևս երկարատև անհանգստություն չունեք մարդու կողմից որևէ անբարենպաստ կողմնակալ վերաբերմունքի վերաբերյալ: Մարդ չկա, և այդպիսով հնարավոր մարդկային կողմնակալության խնդիրը կարծես թե լուծված է:

Ես դա բարձրացնում եմ, քանի որ մենք ականատես ենք լինում աստիճանական և զանգվածային տեղաշարժի դեպի Ալգորիթմ որոշումների կայացման (ADM) AI-ն օգտագործելու ուղղությամբ: Եթե ​​դուք կարողանաք աշխատողին փոխարինել արհեստական ​​ինտելեկտով, ապա հավանականությունն այն է, որ շատ օգուտներ կառաջանան: Ինչպես արդեն նշվեց, դուք այլևս չեք անհանգստանա այդ աշխատողի (նա, ով այլևս չի անում այդ աշխատանքը) մարդկային կողմնակալությունից: Հավանականությունն այն է, որ AI-ն ընդհանուր առմամբ ավելի քիչ ծախսատար կլինի՝ համեմատած երկարաժամկետ ժամանակի հորիզոնի հետ: Դուք հրաժարվում եք բոլոր մյուս տարբեր դժվարություններից, որոնք մասամբ առաջանում են մարդկային աշխատողների հետ: և այլն:

Թվում է, թե առաջարկը, որը ձեռք է բերում հիմք, հետևյալն է. Երբ փորձում եք որոշել, թե որտեղ լավագույնս տեղադրել AI-ն, նախ նայեք այնպիսի պարամետրերին, որոնք արդեն իսկ հանգեցնում են ձեր աշխատողների կողմից մարդու անբարենպաստ կողմնակալության, և որոնց համար այդ կողմնակալությունները նվազեցնում են կամ այլ կերպ չափից դուրս բարդացնում են որոշակի որոշումների կայացման խնդիրները:

Եզրակացությունն այն է, որ խելամիտ է թվում խելամիտ գումարներ հավաքել ինտելեկտուալ ինտելեկտում ներդրումներ կատարելու առումով՝ ուղղակիորեն ուղղված մարդկային որոշումների կայացման խիստ բացահայտ առաջադրանքներին, որոնք դժվար է վերահսկել անբարենպաստ կողմնակալության ներթափանցման տեսանկյունից: Հեռացրեք մարդկային աշխատողներին այդ դերում: Փոխարինեք դրանք AI-ով: Ենթադրվում է, որ AI-ն նման անբարենպաստ կողմնակալություն չի ունենա: Հետևաբար, դուք կարող եք ուտել ձեր տորթը և այն նաև ուտել, մասնավորապես՝ ստանալ որոշումներ կայացնելու առաջադրանքները և անել դա՝ հանած անբարենպաստ կողմնակալության էթիկական և իրավական ուրվականը:

Երբ դուք մատիտ եք անում դա, ROI-ն (ներդրումների վերադարձը) ամենայն հավանականությամբ կդարձնի AI-ի ընդունումը անիմաստ ընտրություն:

Ահա թե ինչպես է դա սովորաբար խաղում:

Նայեք ձեր ամբողջ ընկերությանը և փորձեք բացահայտել որոշումների կայացման խնդիրները, որոնք ազդում են հաճախորդների վրա: Այդ առաջադրանքներից ո՞րն է ամենայն հավանականությամբ անպատշաճ կերպով ազդելու, եթե աշխատողները մարմնավորում են անբարենպաստ կողմնակալություն: Եթե ​​դուք արդեն փորձել եք սանձել այդ կողմնակալությունը, միգուցե թույլ եք տալիս, որ ամեն ինչ կանգնի այնպես, ինչպես կա: Մյուս կողմից, եթե կողմնակալությունները շարունակում են նորից ի հայտ գալ, և դրանք վերացնելու ջանքերը ծանր են, մտածեք այդ դերի մեջ թողնել որոշ տեղին AI: Մի պահեք աշխատողներին խառնաշփոթի մեջ, քանի որ նրանք կարող են անտեսել արհեստական ​​ինտելեկտը կամ AI-ն ետ մղել դեպի անբարենպաստ կողմնակալության անդունդը: Նաև համոզվեք, որ AI-ն կարող է հմտորեն կատարել առաջադրանքը, և դուք բավարար չափով ֆիքսել եք որոշումների կայացման կողմերը, որոնք անհրաժեշտ են աշխատանքը կատարելու համար:

Լվանալ և կրկնել:

Ես հասկանում եմ, որ դա պարզ հասկացություն է թվում, թեև գիտակցում եմ, որ կան բազմաթիվ եղանակներ, որոնցով մարդկանց աշխատողներին արհեստական ​​ինտելեկտով փոխարինելը կարող է հեշտությամբ շեղվել: Շատ ընկերություններ ցանկանում էին նման գործողություններ ձեռնարկել և մտքով չանցավ, թե ինչպես դա անել: Որպես հետեւանք, նրանք հաճախ շատ ավելի վատ խառնաշփոթ էին անում, քան սկզբում ունեին:

Ուզում եմ հստակեցնել և ընդգծել, որ AI-ն համադարման չէ։

Խոսելով դրա մասին, կա մեկ մեծ խնդիր՝ առերեւույթ մարդկային կողմնակալ որոշում կայացնողներին իբր անկողմնակալ AI-ով շպրտելու մաքրության մասին: Խնդիրն այն է, որ դուք կարող եք պարզապես փոխարինել մի շարք անբարենպաստ կողմնակալություններ մյուսով: Համաձայն ավելի վաղ ցուցումների, AI-ն կարող է պարունակել անբարենպաստ կողմնակալություններ և կարող է գործել այդ կողմնակալության վրա: Լկտի ենթադրություն անելն այն մասին, որ կողմնակալ մարդկանց անկողմնակալ արհեստական ​​ինտելեկտի հետ փոխանակելը ամեն ինչ չէ, որ պետք է լինի:

Մի խոսքով, ահա գործարքը, երբ հարցը դիտարկվում է խիստ կողմնակալության գործոններից.

  • AI-ն չունի անբարենպաստ կողմնակալություններ և, հետևաբար, AI-ի վրա հիմնված ADM-ը հարմար է տեղակայելու համար
  • AI-ն ունի նույն անբարենպաստ կողմնակալությունները, ինչ փոխարինվող մարդիկ, և, հետևաբար, AI-ի վրա հիմնված ADM-ն անհանգստացնում է
  • Արհեստական ​​ինտելեկտը ներկայացնում է նոր անբարենպաստ կողմնակալություններ, որոնք դուրս են փոխարինվող մարդկանցից և, հավանաբար, կվատթարացնեն իրավիճակը համապատասխանաբար
  • AI-ն սկզբում լավ է թվում, այնուհետև աստիճանաբար տատանվում է դեպի անբարենպաստ կողմնակալություն
  • այլ

Մենք կարող ենք հակիրճ բացել այդ հնարավորությունները:

Առաջինը իդեալականացված տարբերակն է, թե ինչ կարող է տեղի ունենալ: AI-ն ոչ մի անբարենպաստ կողմնակալություն չունի: Դուք ինտելեկտուալ ինտելեկտը դնում եք տեղում, և այն հիանալի է կատարում աշխատանքը: Լավ է քեզ համար! Իհարկե, կարելի է հուսալ, որ դուք նաև ինչ-որ հմուտ կերպով վարվել եք արհեստական ​​ինտելեկտի ընդգրկման պատճառով մարդկային աշխատողների տեղահանման հետ:

Երկրորդ դեպքում, դուք տեղադրում եք AI-ն և հայտնաբերում, որ AI-ն ցուցադրում է նույն անբարենպաստ կողմնակալությունները, որոնք ունեցել են մարդկային աշխատողները: Ինչպե՞ս կարող է սա լինել: Այս թակարդն ընկնելու ընդհանուր միջոցը մեքենայական ուսուցման (ML) և խորը ուսուցման (DL) օգտագործումն է, որոնք հիմնված են հավաքագրված տվյալների վրա, թե ինչպես էին այդ դերում գտնվող մարդիկ նախկինում իրենց որոշումները կայացնում:

Թույլ տվեք մի պահ բացատրել:

ML/DL-ը հաշվողական օրինաչափությունների համապատասխանության ձև է: Սովորական մոտեցումն այն է, որ դուք հավաքում եք տվյալներ որոշումներ կայացնելու առաջադրանքի վերաբերյալ: Դուք սնուցում եք տվյալները ML/DL համակարգչային մոդելների մեջ: Այդ մոդելները ձգտում են գտնել մաթեմատիկական օրինաչափություններ: Այդպիսի օրինաչափություններ գտնելուց հետո, եթե գտնվեն, ապա արհեստական ​​ինտելեկտի համակարգը կօգտագործի այդ օրինաչափությունները նոր տվյալների հանդիպելիս: Նոր տվյալների ներկայացումից հետո «հին» կամ պատմական տվյալների վրա հիմնված օրինաչափությունները կիրառվում են ընթացիկ որոշում կայացնելու համար:

Կարծում եմ, դուք կարող եք կռահել, թե ուր է սա գնում: Եթե ​​մարդիկ, ովքեր տարիներ շարունակ այդ աշխատանքն են կատարել, իրենց մեջ ներառել են անբարենպաստ կողմնակալություններ, հավանականությունն այն է, որ տվյալներն արտացոլում են դա նուրբ, բայց նշանակալի ձևերով: Մեքենայական ուսուցման կամ խորը ուսուցման հաշվարկային օրինաչափությունների համընկնումը պարզապես կփորձի համապատասխանաբար մաթեմատիկորեն նմանակել տվյալները: Առողջ դատողության կամ մոդելավորման այլ զգալի ասպեկտներ ինքնին բացակայում են:

Ավելին, AI մշակողները նույնպես կարող են չհասկանալ, թե ինչ է կատարվում: Գաղտնի մաթեմատիկան կարող է դժվարացնել այժմ թաքնված կողմնակալությունները բացահայտելը: Դուք իրավամբ հույս կունենաք և ակնկալում եք, որ AI մշակողները կփորձարկեն պոտենցիալ թաղված կողմնակալության համար, թեև դա ավելի բարդ է, քան կարող է թվալ: Կա մեծ հավանականություն, որ նույնիսկ համեմատաբար լայնածավալ փորձարկումների դեպքում, ML/DL-ի օրինաչափությունների համապատասխանող մոդելներում դեռևս առկա կլինեն կողմնակալություններ:

Ամեն դեպքում, դուք կարող եք վերադառնալ առաջին տեղում: Մարդկանց նույն անբարենպաստ կողմնակալությունները այժմ հաշվարկային կերպով արտացոլված են AI համակարգում: Դուք չեք վերացրել կողմնակալությունները։

Դեռ ավելի վատ, դուք կարող եք ավելի քիչ հավանական հասկանալ, որ AI-ն ունի կողմնակալություն: Մարդկանց դեպքում դուք սովորաբար զգուշանում եք, որ մարդիկ ունեն անբարենպաստ կողմնակալություն: Սա բազային ակնկալիք է: AI-ի օգտագործումը կարող է հանգստացնել առաջնորդներին հավատալու, որ ավտոմատացումը լիովին վերացրել է ցանկացած տեսակի մարդկային կողմնակալություն: Նրանք այսպիսով իրենց ոտքի վրա կրակել են: Նրանք ազատվեցին թվացյալ անբարենպաստ կողմնակալություններ ունեցող մարդկանցից՝ փոխարինվելով արհեստական ​​ինտելեկտով, որը, ենթադրվում էր, որ նման կողմնակալություններ չուներ, և, այնուամենայնիվ, այժմ գործածության մեջ են դրել AI-ը լցված նույն կողմնակալություններով, որոնք արդեն հայտնի են:

Սա կարող է իրոք շեղել իրերը: Դուք կարող եք հեռացնել այլ պաշտպանիչ բազրիքներ, որոնք օգտագործվում են մարդկային աշխատողների հետ, որոնք ստեղծվել են հայտնաբերելու և կանխելու համար արդեն ակնկալվող մարդկային կողմնակալության առաջացումը: AI-ն այժմ ազատ է: Ոչինչ չկա այն բանի համար, որ հասցնեմ դրան մինչև գործ անելը: Այնուհետև AI-ն կարող է սկսել ձեզ առաջնորդել կողմնակալ գործողությունների հսկայական կուտակման խղճուկ ճանապարհով:

Եվ, դուք գտնվում եք այն անհարմար և, հավանաբար, պատասխանատու դիրքում, որը ժամանակին գիտեիք կողմնակալության մասին և այժմ թույլ տվեցիք, որ այդ կողմնակալությունները ավերածություններ գործեն: Թերևս մեկ բան է, երբ երբևէ չես հանդիպել նման անբարենպաստ կողմնակալության, և հետո հանկարծ անսպասելիորեն AI-ն դրանք առաջ է բերում: Դուք կարող եք փորձել դա արդարացնել «ով կկռահեր» շեղող տեսակով (գուցե ոչ այնքան համոզիչ): Բայց հիմա ստեղծելով արհեստական ​​ինտելեկտ, որը կատարում է նույն անբարենպաստ կողմնակալ գործողություններ, ինչպես նախկինում, լավ, ձեր արդարացումները դառնում են ավելի բարակ և խամրող:

Սրա շրջադարձը ենթադրում է, որ AI-ն ցուցադրում է անբարենպաստ կողմնակալություններ, որոնք նախկինում չէին հանդիպել, երբ մարդիկ կատարում էին առաջադրանքը: Կարելի է ասել, որ դա թերևս ավելի դժվար է կանխել, քանի որ այն բաղկացած է «նոր» կողմնակալություններից, որոնք ընկերությունը նախկինում չէր փնտրում: Սակայն, ի վերջո, արդարացումները կարող են չհանգստացնել ձեզ։ Եթե ​​AI համակարգը ներխուժել է և՛ անբարոյական, և՛ անօրինական տարածք, ձեր սագը կարող է եփվել:

Մեկ այլ երեսակ, որը պետք է հիշել, այն է, որ AI-ն կարող է լավ սկսել, այնուհետև հասնել անբարենպաստ կողմնակալության: Սա հատկապես հավանական է, երբ մեքենայական ուսուցման կամ խորը ուսուցման օգտագործումը տեղի է ունենում շարունակական հիմունքներով՝ AI-ն արդիական պահելու համար: Անկախ նրանից, թե ML/DL-ն աշխատում է իրական ժամանակում, թե պարբերաբար թարմացումներ է կատարում, պետք է ուշադրություն դարձնել, թե արդյոք AI-ն հնարավո՞ր է ընդունում տվյալներ, որոնք այժմ պարունակում են կողմնակալություններ և որոնք նախկինում չեն եղել:

Ղեկավարների համար, ովքեր կարծում են, որ նրանք անվճար ճաշ են ստանում՝ կախարդական փայտիկը թափահարելով՝ կանխակալ մարդկային աշխատողներին արհեստական ​​ինտելեկտով փոխարինելու համար, նրանք շատ կոպիտ զարթոնքի մեջ են: Տեսեք իմ քննարկումը AI-ի էթիկայի կանոններով առաջնորդներին հզորացնելու կարևորության մասին հղումն այստեղ.

Այս քննարկման այս պահին ես գրազ կգամ, որ դուք ցանկանում եք իրական աշխարհի որոշ օրինակներ, որոնք կարող են ցույց տալ մարդկային անբարենպաստ կողմնակալությունները փոխարինելու (կամ ոչ) հանելուկը արհեստական ​​ինտելեկտի վրա հիմնված անբարենպաստ կողմնակալություններով:

Ուրախ եմ, որ հարցրիր:

Կա հատուկ և վստահաբար սիրված օրինակների հավաքածու, որն ինձ հոգեհարազատ է: Տեսեք, որպես AI-ի փորձագետ, ներառյալ էթիկական և իրավական հետևանքները, ինձ հաճախ խնդրում են բացահայտել իրատեսական օրինակներ, որոնք ցույց են տալիս արհեստական ​​ինտելեկտի էթիկայի երկընտրանքները, որպեսզի թեմայի տեսական բնույթն ավելի հեշտությամբ ընկալվի: Ամենաոգեշնչող ոլորտներից մեկը, որը վառ կերպով ներկայացնում է այս էթիկական AI-ի խնդիրը, արհեստական ​​ինտելեկտի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելն է: Սա կծառայի որպես հարմար օգտագործման դեպք կամ օրինակ՝ թեմայի շուրջ լայն քննարկման համար:

Ահա մի ուշագրավ հարց, որի մասին արժե մտածել. Արդյո՞ք արհեստական ​​ինտելեկտի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելը որևէ բան ցույց է տալիս արհեստական ​​ինտելեկտի անբարենպաստ կողմնակալության մասին, և եթե այո, ի՞նչ է սա ցույց տալիս:

Թույլ տվեք մի պահ բացել հարցը:

Նախ, նշեք, որ իրական ինքնակառավարվող մեքենայի մեջ մարդ վարորդ չկա: Հիշեք, որ իսկական ինքնակառավարվող մեքենաները վարում են AI վարորդական համակարգի միջոցով: Ղեկին մարդ վարորդի կարիք չկա, մեքենան վարելու համար մարդ չկա: Ինքնավար տրանսպորտային միջոցների (ԱՎ) և հատկապես ինքնակառավարվող մեքենաների իմ լայնածավալ և շարունակական լուսաբանման համար տե՛ս. հղումն այստեղ.

Ես կցանկանայի ավելի պարզաբանել, թե ինչ է նշանակում, երբ ես վերաբերում եմ իրական ինքնակառավարվող մեքենաներին:

Հասկանալով ինքնակառավարվող մեքենաների մակարդակները

Որպես պարզաբանում, իսկական ինքնակառավարվող մեքենաներն այն մեքենաներն են, որոնք AI- ն ամբողջովին ինքնուրույն է վարում մեքենան և մեքենայական առաջադրանքի ընթացքում մարդկային օգնություն չկա:

Այս առանց վարորդի տրանսպորտային միջոցները համարվում են 4-րդ և 5-րդ մակարդակներ (տե՛ս իմ բացատրությունը այս հղումը Մականուն), մինչդեռ մեքենան, որը մարդկային վարորդից պահանջում է համատեղ ջանքեր գործադրել, սովորաբար դիտարկվում է 2-րդ կամ 3-րդ մակարդակում: Մեքենաները, որոնք համատեղ կատարում են վարորդական առաջադրանքը, նկարագրվում են որպես կիսաինքնավար և սովորաբար պարունակում են մի շարք մեքենաներ: ավտոմատացված հավելումներ, որոնք կոչվում են ADAS (Վարորդների օգնության առաջադեմ համակարգեր):

5-րդ մակարդակում դեռ գոյություն չունի իսկական ինքնագնաց մեքենա, որը մենք դեռ չգիտենք, թե արդյոք դա հնարավոր կլինի հասնել, և ոչ էլ որքան ժամանակ կպահանջվի այնտեղ հասնելու համար:

Միևնույն ժամանակ, 4-րդ մակարդակի ջանքերը աստիճանաբար փորձում են որոշակի ձգողականություն ձեռք բերել՝ անցնելով շատ նեղ և ընտրովի հանրային ճանապարհային փորձարկումներ, թեև հակասություններ կան այն հարցի շուրջ, թե արդյոք այս թեստավորումն ինքնին պետք է թույլատրվի (մենք բոլորս փորձի մեջ կյանքի կամ մահվան ծովախոզուկներ ենք: ոմանք պնդում են, որ տեղի է ունենում մեր մայրուղիներում և ճանապարհների վրա, տես իմ լուսաբանումը այս հղումը Մականուն).

Քանի որ կիսաավտոմեքենաները մարդկային վարորդ են պահանջում, այդպիսի մեքենաների ընդունումը չի տարբերվի սովորական տրանսպորտային միջոցներից վարվելուց, հետևաբար, այս թեմայի շուրջ դրանց մասին ծածկելու համար ամենևին էլ նոր բան չկա (չնայած, ինչպես կտեսնեք մի ակնթարթում ընդհանուր առմամբ կիրառվում են հաջորդ կետերը):

Կիսաանվտանգ ավտոմեքենաների համար կարևոր է, որ հասարակությունը պետք է նախազգուշացվի վերջին շրջանում ի հայտ եկած անհանգստացնող կողմի մասին, մասնավորապես այն, որ չնայած այն մարդկային վարորդներին, ովքեր շարունակում են փակցնել իրենց տեսահոլովակները իրենց մասին, քնում են «Level 2» կամ «Level 3» մեքենայի ղեկին: , մենք բոլորս պետք է խուսափենք ապակողմնորոշվելուց `հավատալով, որ վարորդը կարող է իրենց ուշադրությունը հանել վարորդական առաջադրանքից` կիսաավտոմեքենան վարելիս:

Դուք պատասխանատու կողմն եք տրանսպորտային միջոցի վարման գործողությունների համար, անկախ նրանից, թե որ ավտոմատացումը կարող է տեղափոխվել 2-րդ մակարդակի կամ 3-րդ մակարդակի:

Ինքնավար մեքենաներ և արհեստական ​​ինտելեկտ՝ անբարենպաստ կողմնակալությամբ

4-րդ և 5-րդ մակարդակների իսկական ինքնագնաց տրանսպորտային միջոցների համար վարորդական գործին չի մասնակցի մարդկային վարորդ:

Բոլոր գրավյալները ուղևորներ են լինելու:

AI- ն վարում է վարումը:

Անմիջապես քննարկելու մի ասպեկտ ենթադրում է այն փաստը, որ այսօր AI- ի վարման համակարգերում ներգրավված AI- ն զգայուն չէ: Այլ կերպ ասած, AI- ն ընդհանուր առմամբ համակարգչային ծրագրավորման և ալգորիթմների հավաքածու է, և, անկասկած, ի վիճակի չէ տրամաբանել այնպես, ինչպես մարդիկ կարող են:

Ինչու՞ է այս հավելյալ շեշտադրումը արհեստական ​​ինտելեկտի մասին զգացմունքային չէ:

Քանի որ ես ուզում եմ ընդգծել, որ երբ քննարկում եմ AI շարժիչ համակարգի դերը, ես մարդկային որակներ չեմ վերագրում AI- ին: Խնդրում ենք տեղյակ լինել, որ այս օրերին շարունակական և վտանգավոր միտում կա AI- ն մարդաբանելու համար: Ըստ էության, մարդիկ մարդկային նման զգացողություն են հատկացնում այսօրվա AI- ին, չնայած անհերքելի և անառարկելի փաստին, որ այդպիսի AI դեռ գոյություն չունի:

Այդ պարզաբանմամբ դուք կարող եք պատկերացնել, որ AI վարելու համակարգը բնիկ ինչ-որ կերպ «չի իմանա» վարման կողմերի մասին: Վարորդությունն ու դրա հետևանքները պետք է ծրագրավորվեն որպես ինքնակառավարվող մեքենայի սարքավորումների և ծրագրակազմի մաս:

Եկեք սուզվենք այն անհամար ասպեկտների մեջ, որոնք սկսում են խաղալ այս թեմայի շուրջ:

Նախ, կարևոր է գիտակցել, որ ոչ բոլոր ինքնակառավարվող AI մեքենաները նույնն են: Յուրաքանչյուր ավտոարտադրող և ինքնակառավարվող տեխնոլոգիական ընկերություն իր մոտեցումն է ցուցաբերում ինքնակառավարվող մեքենաների ստեղծման հարցում: Որպես այդպիսին, դժվար է լայնածավալ հայտարարություններ անել այն մասին, թե ինչ կանեն կամ չեն անեն AI վարորդական համակարգերը:

Ավելին, ամեն անգամ, երբ նշվում է, որ արհեստական ​​ինտելեկտի կառավարման համակարգը որոշակի բան չի անում, դա հետագայում կարող է շրջանցվել այն մշակողների կողմից, որոնք իրականում ծրագրավորում են համակարգիչը հենց դա անելու համար: Քայլ առ քայլ, արհեստական ​​ինտելեկտի շարժիչ համակարգերը աստիճանաբար բարելավվում և ընդլայնվում են: Այսօր գոյություն ունեցող սահմանափակումն այլևս գոյություն չի ունենա համակարգի ապագա կրկնության կամ տարբերակի դեպքում:

Հավատում եմ, որ բավականաչափ նախազգուշացում է ապահովում ՝ հիմք դնելու այն, ինչի մասին ես պատրաստվում եմ պատմել:

Մենք այժմ պատրաստ ենք խորը սուզվել ինքնակառավարվող մեքենաների և էթիկական AI հնարավորությունների մեջ, որոնք ենթադրում են AI-ի և անբարենպաստ կողմնակալության ուսումնասիրություն:

Եկեք օգտագործենք պարզ օրինակ: AI-ի վրա հիմնված ինքնակառավարվող մեքենան ընթանում է ձեր թաղամասի փողոցներում և կարծես թե ապահով է վարում: Սկզբում դուք հատուկ ուշադրություն էիք հատկացրել ամեն անգամ, երբ ձեզ հաջողվում էր հայացք նետել ինքնակառավարվող մեքենային։ Ինքնավար մեքենան աչքի էր ընկնում իր էլեկտրոնային սենսորների դարակով, որը ներառում էր տեսախցիկներ, ռադարային միավորներ, LIDAR սարքեր և այլն: Շատ շաբաթներ անց, երբ ինքնակառավարվող մեքենան շրջում էր ձեր համայնքում, դուք հիմա դա հազիվ եք նկատել: Ինչ վերաբերում է ձեզ, դա պարզապես հերթական մեքենան է առանց այն էլ բանուկ հանրային ճանապարհների վրա:

Որպեսզի չմտածեք, որ անհնար է կամ անհավանական է ծանոթանալ ինքնակառավարվող մեքենաներին, ես հաճախ եմ գրել այն մասին, թե ինչպես են այն վայրերը, որոնք գտնվում են ինքնակառավարվող մեքենաների փորձարկումների շրջանակում, աստիճանաբար ընտելացել են տեսնել երեսպատված մեքենաները: տես իմ վերլուծությունը այս հղումը Մականուն. Տեղի բնակիչներից շատերը, ի վերջո, անցան բերանից բացվող հառաչանքից դեպի այժմ արտանետելով ձանձրույթի լայնածավալ հորանջ՝ ականատես լինելու այդ ոլորապտույտ ինքնակառավարվող մեքենաներին:

Հավանաբար, հենց հիմա հիմնական պատճառը, որ նրանք կարող են նկատել ինքնավար մեքենաները, գրգռվածության և զայրույթի գործոնն է: AI վարորդական համակարգերը երաշխավորում են, որ մեքենաները ենթարկվում են արագության բոլոր սահմանափակումներին և ճանապարհային կանոններին: Իրենց ավանդական մարդկանց կողմից վարվող մեքենաներով բուռն մարդ վարորդների համար դուք զայրանում եք այն ժամանակ, երբ մնում եք խստորեն օրինապահ AI-ի վրա հիմնված ինքնակառավարվող մեքենաների հետևում:

Դա մի բան է, որին մենք բոլորս պետք է սովորենք՝ իրավացիորեն կամ սխալ կերպով:

Վերադարձ դեպի մեր հեքիաթը։

Պարզվում է, որ երկու անտեղի մտահոգություններ են սկսում առաջանալ այլապես անվնաս և ընդհանուր առմամբ ողջունելի AI-ի վրա հիմնված ինքնակառավարվող մեքենաների վերաբերյալ, մասնավորապես.

ա. Այնտեղ, որտեղ արհեստական ​​ինտելեկտը թափառում է ինքնակառավարվող մեքենաները՝ ուղևորություններ վերցնելու համար, դարձել է անհանգիստ մտահոգություն ընդհանուր համայնքում:

բ. Ինչպես է արհեստական ​​ինտելեկտը վերաբերվում սպասող հետիոտներին, որոնք ճանապարհի իրավունք չունեն, նույնպես աճող խնդիր է

Սկզբում AI-ն շրջում էր ինքնակառավարվող մեքենաներով ամբողջ քաղաքում: Յուրաքանչյուր ոք, ով ցանկանում էր ինքնակառավարվող մեքենայով վարել, ըստ էության հավասար հնարավորություններ ուներ: Աստիճանաբար, AI-ն սկսեց հիմնականում պահել ինքնակառավարվող մեքենաները ռոումինգում քաղաքի միայն մեկ հատվածում: Այս բաժինը ավելի մեծ գումար էր վաստակում, և AI համակարգը ծրագրված էր փորձել և առավելագույնի հասցնել եկամուտները՝ որպես համայնքում օգտագործման մաս:

Քաղաքի աղքատ հատվածներում գտնվող համայնքի անդամներն ավելի քիչ հավանական է, որ կարողանան երթևեկել ինքնակառավարվող մեքենայով: Դա պայմանավորված էր նրանով, որ ինքնակառավարվող մեքենաները ավելի հեռու էին և թափառում էին տեղանքի ավելի բարձր եկամուտ ունեցող հատվածում: Երբ հարցումը գալիս էր քաղաքի հեռավոր հատվածից, ցանկացած հարցում ավելի մոտ վայրից, որը հավանաբար քաղաքի «հարգելի» մասում էր, ավելի առաջնահերթություն կստանար: Ի վերջո, ինքնակառավարվող մեքենա ձեռք բերելը ցանկացած վայրում, բացի քաղաքի ավելի հարուստ հատվածից, գրեթե անհնարին էր, ինչը սարսափելի էր նրանց համար, ովքեր ապրում էին այժմ ռեսուրսներով լի տարածքներում:

Դուք կարող եք պնդել, որ արհեստական ​​ինտելեկտը հիմնականում իջել է վստահված անձի խտրականության ձևի վրա (նաև հաճախ կոչվում է անուղղակի խտրականություն): Արհեստական ​​ինտելեկտը ծրագրավորված չէր այդ աղքատ թաղամասերից խուսափելու համար: Փոխարենը, այն «սովորեց» դա անել ML/DL-ի օգտագործման միջոցով:

Բանն այն է, որ մարդատար վարորդները հայտնի էին նրանով, որ անում էին նույն բանը, թեև պարտադիր չէ, որ բացառապես փող աշխատելու տեսանկյունից: Կային մի քանի մարդ վարորդներ, ովքեր անբարենպաստ կողմնակալություն ունեին քաղաքի որոշ հատվածներից հեծյալներ վերցնելու հարցում: Սա ինչ-որ չափով հայտնի երևույթ էր, և քաղաքը մոնիտորինգի մոտեցում էր կիրառել՝ բռնելու մարդկանց վարորդներին, ովքեր դա անում էին: Մարդ վարորդները կարող են դժվարության մեջ ընկնել ընտրության անբարենպաստ պրակտիկա իրականացնելու համար:

Ենթադրվում էր, որ արհեստական ​​ինտելեկտը երբեք չի ընկնի նույն տեսակի շարժվող ավազի մեջ: Ոչ մի մասնագիտացված մոնիտորինգ չի ստեղծվել՝ հետևելու, թե ուր են գնում AI-ի վրա հիմնված ինքնակառավարվող մեքենաները: Միայն այն բանից հետո, երբ համայնքի անդամները սկսեցին բողոքել, քաղաքի ղեկավարները հասկացան, թե ինչ է կատարվում: Այս տեսակի համաքաղաքային խնդիրների մասին ավելին իմանալու համար, որոնք պատրաստվում են ներկայացնել ինքնավար տրանսպորտային միջոցները և ինքնակառավարվող մեքենաները, տես իմ լուսաբանումը այստեղ. այս հղումը Մականուն և որը նկարագրում է Հարվարդի կողմից իրականացված ուսումնասիրությունը, որը ես համահեղինակել եմ թեմայի շուրջ:

AI-ի վրա հիմնված ինքնակառավարվող մեքենաների ռոումինգի այս օրինակը ցույց է տալիս ավելի վաղ ցուցմունքը, որ կարող են լինել իրավիճակներ, որոնք հանգեցնում են մարդկանց անբարենպաստ կողմնակալության, որոնց համար սահմանված են հսկողություն, և որ AI-ն, որը փոխարինում է այդ մարդկանց վարորդներին, մնում է Շոտլանդիայում: անվճար. Ցավոք, արհեստական ​​ինտելեկտը կարող է աստիճանաբար ընկղմվել նման կողմնակալության մեջ և դա անել առանց տեղում տեղադրված բավարար պահակակետերի:

Երկրորդ օրինակը ներառում է AI-ի որոշումը, թե արդյոք կանգ առնել սպասող հետիոտների համար, որոնք չունեն ճանապարհ անցնելու իրավունք:

Դուք, անկասկած, մեքենա եք վարել և հանդիպել եք հետիոտների, որոնք սպասում էին անցնելու փողոցը, բայց նրանք երթևեկության իրավունք չունեին դրա համար: Սա նշանակում էր, որ դուք հայեցողություն ունեիք՝ կանգ առնելու և թույլ տալ, որ նրանք անցնեն: Դուք կարող եք շարունակել՝ չթողնելով, որ նրանք անցնեն և դեռևս լիովին լինեք դա անելու օրինական վարորդական կանոնների մեջ:

Ուսումնասիրությունները, թե ինչպես են մարդիկ որոշում կայացնում նման հետիոտների համար կանգ առնել կամ չկանգնեցնելու մասին, ցույց են տվել, որ երբեմն մարդիկ վարորդներն ընտրություն են կատարում՝ ելնելով անբարենպաստ կողմնակալությունից: Մարդ վարորդը կարող է նայել հետիոտնին և որոշել կանգ չառնել, թեև նրանք կանգ կառնեին, եթե հետիոտն այլ տեսք ունենար, օրինակ՝ ռասայից կամ սեռից: Ես ուսումնասիրել եմ սա հղումն այստեղ.

Պատկերացրեք, որ արհեստական ​​ինտելեկտի վրա հիմնված ինքնակառավարվող մեքենաները ծրագրված են լուծելու այն հարցը, թե կանգնե՞լ, թե՞ չկանգնել այն հետիոտների համար, ովքեր երթևեկության իրավունք չունեն: Ահա թե ինչպես են AI ծրագրավորողները որոշել ծրագրավորել այս առաջադրանքը. Նրանք հավաքել են տվյալներ քաղաքի տեսախցիկներից, որոնք տեղադրված են ամբողջ քաղաքում: Տվյալները ցույց են տալիս մարդկանց վարորդներին, որոնք կանգ են առնում հետիոտների համար, ովքեր ճանապարհի իրավունք չունեն, և մարդ վարորդներին, որոնք կանգ չեն առնում: Այդ ամենը հավաքված է մեծ տվյալների բազայում:

Օգտագործելով մեքենայական ուսուցումը և խորը ուսուցումը, տվյալները մոդելավորվում են հաշվողական եղանակով: AI վարորդական համակարգը այնուհետև օգտագործում է այս մոդելը՝ որոշելու, թե երբ կանգ առնել կամ չկանգնել: Ընդհանուր առմամբ, գաղափարն այն է, որ ինչից էլ բաղկացած է տեղական սովորույթը, այսպես է AI-ն ուղղորդում ինքնակառավարվող մեքենան:

Ի զարմանս քաղաքի ղեկավարների և բնակիչների, AI-ն ակնհայտորեն նախընտրում էր կանգ առնել կամ չկանգնել՝ ելնելով հետիոտնի արտաքինից, ներառյալ նրանց ռասայից և սեռից: Ինքնավար մեքենայի սենսորները կսկանավորեն սպասող հետիոտնին, այս տվյալները կներառեն ML/DL մոդելի մեջ, և մոդելը կթողարկի AI-ին՝ կանգ առնել, թե շարունակել: Ցավոք սրտի, քաղաքն արդեն ուներ բազմաթիվ մարդկային վարորդների կողմնակալություն այս առումով, և AI-ն այժմ կրկնօրինակում էր նույնը:

Լավ նորությունն այն է, որ սա բարձրացնում է մի խնդիր, որի գոյության մասին գրեթե ոչ ոք նախկինում չգիտեր: Վատ նորությունն այն էր, որ քանի որ արհեստական ​​ինտելեկտը բռնվել էր դա անելիս, մեղքի մեծ մասը նա ստացավ: Այս օրինակը ցույց է տալիս, որ արհեստական ​​ինտելեկտի համակարգը կարող է պարզապես կրկնօրինակել մարդկանց արդեն իսկ գոյություն ունեցող անբարենպաստ կողմնակալությունները:

Եզրափակում

Գոյություն ունեն բազմաթիվ եղանակներ՝ փորձելով խուսափել արհեստական ​​ինտելեկտի մշակումից, որը կա՛մ դարպասից դուրս ունի անբարենպաստ կողմնակալություն, կա՛մ ժամանակի ընթացքում առաջ է բերում կողմնակալություններ: Մոտեցումներից մեկը ներառում է ապահովել, որ AI ծրագրավորողները տեղյակ են այս տեղի ունեցածի մասին և այդպիսով պահել նրանց, որպեսզի ծրագրավորեն AI-ն՝ կանխելու խնդիրը: Մեկ այլ ճանապարհ բաղկացած է ոչ էթիկական վարքագծի համար AI-ի ինքնավերահսկումից (տե՛ս իմ քննարկումը այստեղ հղումն այստեղ) և/կամ ունենալ AI-ի մեկ այլ մաս, որը վերահսկում է այլ AI համակարգերը պոտենցիալ ոչ էթիկական վարքագծի համար (ես սա անդրադարձել եմ այստեղ հղումն այստեղ).

Հիշեցնենք, որ մենք պետք է գիտակցենք, որ մարդիկ կարող են ունենալ անբարենպաստ կողմնակալություն, և որ նրանք ինչ-որ կերպ պետք է իմանան իրենց սահմանափակումները։ Նմանապես, AI-ն կարող է ունենալ անբարենպաստ կողմնակալություններ, և ինչ-որ կերպ մենք պետք է իմանանք դրանց սահմանափակումները:

Ձեզնից նրանց համար, ովքեր եռանդով ընդունում են արհեստական ​​ինտելեկտի էթիկան, ես կցանկանայի հենց հիմա ավարտել մեկ այլ հայտնի տողով, որը բոլորն արդեն պետք է իմանան: Մասնավորապես, խնդրում ենք շարունակել օգտագործել և կիսվել Էթիկական AI-ի կարևորությամբ: Եվ այդպես վարվելով՝ ես լկտիաբար կասեի հետևյալը.

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/