Արհեստական ​​ինտելեկտի էթիկան հակասում է աճող տաք կարտոֆիլի համախտանիշին, որն օգտագործվում է AI ստեղծողների կողմից, որոնք կարծես փորձում են խուսափել պատասխանատվությունից իրենց կյանքի համար որոշիչ ինքնավար համակարգերի համար:

Մենք բոլորս գիտենք, որ դուք պետք է համոզվեք, որ չհասնեք ասացվածքի տաք կարտոֆիլին:

Կարտոֆիլի թեժ գամբիտը, ըստ երևույթին, ունի իր արմատները առնվազն 1800-ականների վերջին, երբ սրահի խաղը, որը ներառում էր վառվող մոմեր, մի տեսակ գնդակը գլորեց: Մարդիկ սովորաբար նստած էին մի շարք փայտե աթոռների վրա, որոնք համեմատաբար մոտ էին միմյանց և այդ դարաշրջանում բոլորովին հուզիչ խաղ էին խաղում: Վառված մոմը խաղացողների կողմից անհատից անձ էր փոխանցվում և ներկայացնում էր այն, ինչ մենք հետագայում նախընտրեցինք արտահայտել որպես հանձնում: տաք կարտոֆիլ.

Սովորական էր, որ յուրաքանչյուր անձից պահանջվում էր բարձրաձայն խոսել հանրաճանաչ ոտանավորով, նախքան նրանք կարողանան անցնել աստիճանաբար վառվող մոմի կողքով: Հանգույցը, ըստ երևույթին, հետևյալն էր.

«Ջեքը ողջ է և, հավանաբար, կապրի.

Եթե ​​նա մեռնի քո ձեռքում, դու մի հատուցում ունես տալու»։

Այս հանգավոր ասմունքը, ենթադրաբար, թույլ կտա մոմին մի փոքր ժամանակ շարունակել վառվել մինչև իր վերջնական ավարտը: Ով վերջում բնական մարման ժամանակ խրվեց իր մոտ եղած մոմով, նա էր, ով պարտվեց լուցկին (բառախաղ):

Համաձայն հանգի մեջ նշված բառերի, պարտվողը պետք է վճարեր «գրավը» և այդպիսով սովորաբար ստիպված էր դուրս գալ խաղի հետագա փուլերից: Այնուհետև սա կարող է համակցվել այն ամենի հետ, ինչ մենք այսօր համարում ենք ամենօրյա երաժշտական ​​աթոռներ, այնպես, որ ռաունդը պարտված անձը այլևս չմասնակցի հաջորդ փուլերին (կարծես երաժշտությունը դադարեց, և նրանք չկարողացան ազատ տեղ հավաքել): Ի վերջո, երկու հոգի կմնար, որոնք կանցնեին վառված մոմը և կասեին ոտանավորը, մինչև վերջնական հաղթողը որոշվեր վերջնական մարման ժամանակ:

Դուք կարող եք մտածել, թե ինչու մենք այլևս չենք խաղում այս խաղը վառված մոմով, և ինչու մենք դրա փոխարեն սովորաբար անվանում ենք տաք կարտոֆիլ, այլ ոչ թե որպես «վառված մոմ» սխեմա: Հետազոտողները հանգել են բազմաթիվ տեսությունների, թե ինչպես է դա աստիճանաբար տեղի ունեցել: Պատմությունը կարծես թե պղտոր է և չի կողմնորոշվում, թե ինչպես են զարգացել իրադարձություններն այս հարցում: Ենթադրում եմ, որ մենք կարող ենք հանգստանալ, որ վառված մոմերը սովորաբար չեն օգտագործվում այսպես, քանի որ ինչ-որ բան շոշափելիորեն շեղվելու հավանականությունը շատ մտահոգիչ կթվա (ինչ-որ մեկը գցում է մոմը և կրակ է վառում, կամ ինչ-որ մեկը այրվում է մոմից, երբ նրան տալիս են այն): մեկ այլ խաղացողից և այլն):

Ինչ վերաբերում է տաք կարտոֆիլին՝ որպես վառված մոմի պոտենցիալ փոխարինող, կարող եք ընդհանուր առմամբ պնդել, որ կարտոֆիլն ընդհանուր առմամբ ինչ-որ չափով ավելի անվտանգ է լինելու: Բաց կրակ չկա: Ոչ հալվող մոմ: Այս համատեքստում կարտոֆիլ օգտագործելու հնարավոր հիմքն այն է, որ հայտնի է, որ դրանք տաքացնելուց հետո հեշտությամբ պահպանում են ջերմությունը: Կարելի է կարտոֆիլը շրջել, և այն մի քիչ տաք կմնա։ Ենթադրվում է, որ որոշելը, թե երբ տաք կարտոֆիլն այլևս տաք չէ, և փոխարենը գնահատվում է որպես սառը, բուռն վիճելի առաջարկ կլինի:

Իհարկե, առածական տաք կարտոֆիլի հասկացությունն այս օրերին ավելի շատ առանձին քննարկման առարկա է դառնում: Ամեն ինչ, որը գնահատվում կամ դասվում է որպես տաք կարտոֆիլ, սովորաբար լրջորեն ազատվելու որակի է: Չես ուզում տաք կարտոֆիլ բռնել: Դուք ցանկանում եք համոզվել, որ այն գնում է այլ տեղ: Ինչ-որ չափով դուք կարող եք չափազանց անհանգստանալ, թե ուր է այն գնում, պարզապես այն այլևս ձեր ձեռքին չէ:

Դուք բավականին անխիղճ կթվա, եթե կարող եք տաք կարտոֆիլ նվիրել սիրելի ընկերոջը կամ նմանատիպ ծանոթին: Սա բոլորովին անտեղի կթվա: Միգուցե մեկ ուրիշին կամ մեկ այլ տեղ գտեք այդ տաք կարտոֆիլը դնելու համար, եթե կարող եք դա անել: Հուսահատ քայլը կարող է լինել տաք կարտոֆիլը սիրալիր գործընկերոջը պարտադրելը, բայց դա, հուսով ենք, արվում է միայն որպես վերջին միջոց:

Մետաղադրամի մյուս կողմն այն է, որ դուք կարող եք հաճույք ստանալ տաք կարտոֆիլ տալով մեկին, ում չեք սիրում կամ ում հետ վրեժ եք լուծում: Իհարկե, տաք կարտոֆիլը կարող է գրեթե փառահեղ լինել, եթե դուք նպատակ եք հետապնդում թուլացնել այն մարդուն, ով ձեզ վատ է վերաբերվել: Թող նրանք պարզեն, թե ինչ անել տաք կարտոֆիլի հետ: Լավ ազատվեք կարտոֆիլից և ամենավատը հաջողություն նրան, ում հետ դուք նշել եք այն:

Տաք կարտոֆիլի սցենարում, որը ներառում է ընդամենը երկու հոգի, հնարավոր է արագ ետ ու առաջ վիճաբանություն այն մասին, թե որ անձը ձեռքում է անճաշակ և անցանկալի իրը: Օրինակ, ես տաք կարտոֆիլը հանձնում եմ քեզ, իսկ դու շտապով հետ եմ տալիս ինձ։ Ենթադրելով, որ մենք կարիք չունենք նշելու մանկական ոտանավորը յուրաքանչյուր հանձնման միջև, մենք կարող ենք պարզապես անցնել կարտոֆիլի երկայնքով այնքան արագ, որքան մեր ձեռքերը թույլ են տալիս դա անել:

Ձեզ կարող է հետաքրքրել, թե ինչու եմ ես որոշել խորը սուզվել հարգված և հաճախ հիշատակվող տաք կարտոֆիլի մեջ:

Ահա թե ինչու:

Պարզվում է, որ տաք կարտոֆիլի դիմակն ավելի ու ավելի է օգտագործվում արհեստական ​​ինտելեկտի (AI) ոլորտում։

Մարդկանց մեծամասնությունը ոչինչ չգիտի դրա մասին: Նրանք երբեք չեն լսել դրա մասին: Նրանք բացարձակապես անտեղյակ են, թե դա ինչ է։ Նույնիսկ AI ծրագրավորողներից շատերը տեղյակ չեն խնդրին: Այնուամենայնիվ, այն գոյություն ունի և կարծես թե օգտագործվում է իսկապես կասկածելի իրավիճակներում, հատկապես կյանքի կամ մահվան հանգամանքների հետ կապված դեպքեր:

Ես սա վերաբերում եմ որպես AI Տաք կարտոֆիլի համախտանիշ.

Այս համախտանիշի հիմքում կան բազմաթիվ լուրջ հետևանքներ, և մենք պետք է համոզվենք, որ մենք դնում ենք մեր AI-ի էթիկայի մտածողության գլխարկները և մտածում, թե ինչ պետք է անել: Կան սթափեցնող էթիկական նկատառումներ։ Անշուշտ, կան նաև ուշագրավ իրավական հետևանքներ (որոնք դեռևս չեն հասել հասարակության տեսանելիությանը, թեև ես կանխատեսում եմ, որ շուտով կհասնեն): Արհեստական ​​ինտելեկտի էթիկայի, էթիկական ինտելեկտի և իրավական արհեստական ​​ինտելեկտի խնդիրների իմ շարունակական և ընդարձակ լուսաբանման համար տե՛ս. հղումն այստեղ և հղումն այստեղ, պարզապես մի քանի անուն:

Եկեք բացենք փաթեթավորումը AI Hot Potato Syndrome.

Պատկերացրեք AI համակարգ, որն աշխատում է մարդու հետ համատեղ: Արհեստական ​​ինտելեկտը և մարդը վերահսկում են ընթացող որոշ գործողությունները, այնպես որ երբեմն մարդը վերահսկում է, իսկ մյուս անգամ՝ AI-ն: Սա սկզբում կարող է արվել, եթե ասենք, բարեկիրթ կամ ողջամիտ ձևով: Տարբեր պատճառներով, որոնց մենք մի պահ կանդրադառնանք, AI-ն կարող է հաշվողականորեն պարզել, որ վերահսկողությունը պետք է շտապ փոխանցվի մարդուն:

Սա է տաք կարտոֆիլ դա ավելի շուտ վտանգում է կյանքը իրական աշխարհում, այլ ոչ թե ծառայում է որպես մանկական ուսուցողական խաղ:

Արհեստական ​​ինտելեկտից մարդուն վերահսկողությունը հապճեպ փոխանցելու խնդիրն այն է, որ դա կարելի է անել ողջամիտ ձևով կամ կարող է իրականացվել բավականին անհիմն ձևով: Եթե ​​մարդն առանձնապես չի սպասում հանձնմանը, ապա դա, ամենայն հավանականությամբ, խնդիր է: Եթե ​​մարդն ընդհանուր առմամբ լավ է վերաբերվում վերահսկողության անցմանը, ապա հանձնման հիմքում ընկած հանգամանքները կարող են սարսափելի լինել, երբ մարդուն անբավարար ժամանակ է տրվում կամ անբավարար գիտակցում, թե ինչու է հսկողությունը բռնի կերպով սնվում նրանց ձեռքում:

Մենք կուսումնասիրենք օրինակներ, թե ինչպես դա կարող է կյանքի կամ մահվան վտանգ առաջացնել մարդու և, հնարավոր է, մոտակա այլ մարդկանց համար: Դա լուրջ բան է։ Ժամանակաշրջան, վերջակետ։

Նախքան մտնելու հիմքում ընկած վայրի և բրդոտ նկատառումների մի քանի այլ մսոտ կողմեր AI Hot Potato Syndrome, եկեք մի քանի լրացուցիչ հիմունքներ դնենք խորապես կարևոր թեմաների վերաբերյալ: Մենք պետք է հակիրճ ուսումնասիրենք AI-ի էթիկա և հատկապես Մեքենայական ուսուցման (ML) և Deep Learning (DL) ի հայտ գալը:

Դուք կարող եք անորոշ տեղյակ լինել, որ այս օրերի ամենաբարձր ձայներից մեկը AI ոլորտում և նույնիսկ արհեստական ​​ինտելեկտի դաշտից դուրս բաղկացած է էթիկական արհեստական ​​ինտելեկտի ավելի մեծ երևույթի մասին աղաղակելուց: Եկեք նայենք, թե ինչ է նշանակում հղում կատարել AI-ի էթիկային և էթիկական AI-ին: Բացի այդ, մենք կուսումնասիրենք, թե ինչ նկատի ունեմ, երբ խոսում եմ մեքենայական ուսուցման և խորը ուսուցման մասին:

Արհեստական ​​ինտելեկտի էթիկայի որոշակի հատված կամ մի հատված, որը արժանացել է ԶԼՄ-ների մեծ ուշադրությանը, բաղկացած է AI-ից, որը ցուցադրում է անբարենպաստ կողմնակալություններ և անհավասարություններ: Դուք կարող եք տեղյակ լինել, որ երբ սկսվեց AI-ի վերջին դարաշրջանը, խանդավառության մեծ պոռթկում էր այն, ինչ այժմ ոմանք անվանում են: AI For Good. Ցավոք սրտի, այդ բուռն հուզմունքից հետո մենք սկսեցինք ականատես լինել AI For Bad. Օրինակ, AI-ի վրա հիմնված դեմքի ճանաչման տարբեր համակարգեր բացահայտվել են որպես ռասայական և գենդերային կողմնակալություններ պարունակող, որոնք ես քննարկել եմ հղումն այստեղ.

Դեմ պայքարելու ջանքերը AI For Bad ակտիվորեն ընթանում են։ Բացի աղմկոտ իրավական Սխալ արարքները զսպելու ձգտումները, կա նաև զգալի մղում դեպի AI էթիկան ընդունելու՝ AI-ի ստորությունը շտկելու համար: Հասկացությունը կայանում է նրանում, որ մենք պետք է ընդունենք և հաստատենք Արհեստական ​​ինտելեկտի էթիկական հիմնական սկզբունքները Արհեստական ​​ինտելեկտի զարգացման և ներդրման համար՝ դա անելով նվազեցնելու համար AI For Bad և միաժամանակ ազդարարելով և խթանելով նախընտրելիը AI For Good.

Համապատասխան հասկացության համաձայն՝ ես AI-ն օգտագործելու ջատագովն եմ՝ որպես արհեստական ​​ինտելեկտի դժբախտությունների լուծման մաս՝ կրակը կրակի հետ պայքարելով այդ մտածելակերպով: Օրինակ՝ մենք կարող ենք ներդնել Արհեստական ​​ինտելեկտի էթիկական բաղադրիչները արհեստական ​​ինտելեկտի համակարգում, որը կհետևի, թե ինչպես է AI-ի մնացած անդամներն անում բաներ և այդպիսով իրական ժամանակում պոտենցիալ կերպով կբռնեն ցանկացած խտրական ջանք, տես իմ քննարկումը. հղումն այստեղ. Մենք կարող ենք նաև ունենալ AI-ի առանձին համակարգ, որը հանդես է գալիս որպես AI Էթիկայի մոնիտոր: Արհեստական ​​ինտելեկտի համակարգը ծառայում է որպես վերահսկիչ՝ հետևելու և հայտնաբերելու, թե երբ է մեկ այլ AI գնում ոչ էթիկական անդունդ (տե՛ս նման հնարավորությունների իմ վերլուծությունը այստեղ՝ հղումն այստեղ).

Քիչ անց ես ձեզ հետ կկիսվեմ AI-ի էթիկայի հիմքում ընկած մի քանի հիմնական սկզբունքներով: Այս տեսակի ցուցակները շատ են լողում այս ու այն կողմ: Կարելի է ասել, որ դեռևս չկա համընդհանուր բողոքարկման և համաձայնության եզակի ցուցակ: Սա ցավալի լուր է: Լավ նորությունն այն է, որ գոնե կան AI-ի էթիկայի մատչելի ցուցակներ, և դրանք հակված են միանգամայն նման լինել: Ընդհանուր առմամբ, սա ենթադրում է, որ մի տեսակ հիմնավորված մերձեցման միջոցով մենք գտնում ենք մեր ճանապարհը դեպի ընդհանուր ընդհանրություն, թե ինչից է բաղկացած AI էթիկան:

Նախ, եկեք համառոտ անդրադառնանք էթիկական արհեստական ​​ինտելեկտի ընդհանուր կանոններից մի քանիսին, որպեսզի ցույց տանք, թե ինչ պետք է լինի կենսական նշանակություն ունեցող ցանկացած մարդու համար, ով արհեստագործում է, զբաղվում կամ օգտագործում է AI:

Օրինակ, ինչպես նշվում է Վատիկանի կողմից Հռոմը AI-ի էթիկայի կոչ է անում և քանի որ ես խորությամբ անդրադարձել եմ հղումն այստեղ, սրանք են նրանց բացահայտված AI-ի էթիկայի վեց հիմնական սկզբունքները.

  • Թափանցիկություն. Սկզբունքորեն, AI համակարգերը պետք է բացատրելի լինեն
  • Ներառումը. Պետք է հաշվի առնել բոլոր մարդկանց կարիքները, որպեսզի բոլորը կարողանան օգուտ քաղել, և բոլոր անհատներին առաջարկել լավագույն պայմաններն ինքնադրսևորվելու և զարգանալու համար։
  • Պատասխանատվություն ` Նրանք, ովքեր նախագծում և կիրառում են AI-ի օգտագործումը, պետք է գործեն պատասխանատվությամբ և թափանցիկությամբ
  • Անաչառություն. Մի ստեղծեք կամ մի գործեք ըստ կողմնակալության՝ դրանով իսկ պաշտպանելով արդարությունն ու մարդկային արժանապատվությունը
  • հուսալիություն: AI համակարգերը պետք է կարողանան հուսալիորեն աշխատել
  • Անվտանգություն և գաղտնիություն. AI համակարգերը պետք է ապահով աշխատեն և հարգեն օգտատերերի գաղտնիությունը:

Ինչպես նշված է ԱՄՆ պաշտպանության նախարարության (DoD) կողմից իրենց Արհեստական ​​ինտելեկտի օգտագործման էթիկական սկզբունքներ և քանի որ ես խորությամբ անդրադարձել եմ հղումն այստեղ, սրանք են AI-ի նրանց վեց հիմնական էթիկայի սկզբունքները.

  • Պատասխանատու: DoD անձնակազմը կկիրառի դատողության և խնամքի համապատասխան մակարդակներ՝ միաժամանակ պատասխանատու մնալով AI կարողությունների զարգացման, տեղակայման և օգտագործման համար:
  • Արդար: Դեպարտամենտը կանխամտածված քայլեր կձեռնարկի՝ նվազագույնի հասցնելու AI կարողությունների մեջ չնախատեսված կողմնակալությունը:
  • Հետագծելի: Դեպարտամենտի AI կարողությունները կզարգացվեն և կտեղակայվեն այնպես, որ համապատասխան անձնակազմը համապատասխան պատկերացում ունենա տեխնոլոգիայի, զարգացման գործընթացների և գործառնական մեթոդների մասին, որոնք կիրառելի են AI կարողությունների համար, ներառյալ թափանցիկ և աուդիտի ենթարկվող մեթոդաբանությունները, տվյալների աղբյուրները և նախագծման ընթացակարգն ու փաստաթղթերը:
  • Վստահելի: Դեպարտամենտի արհեստական ​​ինտելեկտի հնարավորությունները կունենան հստակ, հստակորեն սահմանված կիրառումներ, և նման հնարավորությունների անվտանգությունը, անվտանգությունը և արդյունավետությունը ենթակա կլինեն փորձարկման և հավաստիացման՝ սահմանված օգտագործման շրջանակում դրանց ողջ կյանքի ընթացքում:
  • Կառավարվող. Դեպարտամենտը նախագծելու և նախագծելու է AI-ի հնարավորությունները՝ իրականացնելու իրենց նախատեսված գործառույթները՝ միաժամանակ ունենալով անցանկալի հետևանքները հայտնաբերելու և խուսափելու, ինչպես նաև չնախատեսված վարք դրսևորող տեղակայված համակարգերը անջատելու կամ անջատելու կարողություն:

Ես նաև քննարկել եմ AI էթիկայի սկզբունքների տարբեր կոլեկտիվ վերլուծություններ, ներառյալ հետազոտողների կողմից մշակված մի շարք, որոնք ուսումնասիրել և խտացրել են բազմաթիվ ազգային և միջազգային AI էթիկայի դրույթների էությունը «Արհեստական ​​ինտելեկտի էթիկայի գլոբալ լանդշաֆտը» վերնագրով հոդվածում (հրատարակված): մեջ բնություն), և որ իմ լուսաբանումն ուսումնասիրում է հղումն այստեղ, որը հանգեցրեց այս հիմնական ցուցակին.

  • Թափանցիկություն
  • Արդարություն և արդարություն
  • Ոչ չարամտություն
  • պատասխանատվություն
  • Գաղտնիության
  • Բարեգործություն
  • Ազատություն և ինքնավարություն
  • Վստահեք
  • Կայունություն
  • Արժանապատվություն
  • Համերաշխություն

Ինչպես կարող եք ուղղակիորեն կռահել, այս սկզբունքների հիմքում ընկած առանձնահատկությունները պարզելու փորձը կարող է չափազանց դժվար լինել: Առավել եւս, որ այդ լայն սկզբունքները լիովին շոշափելի և բավականաչափ մանրամասն ինչ-որ բանի վերածելու ջանքերը, որոնք կարող են օգտագործվել արհեստական ​​ինտելեկտի համակարգեր ստեղծելու ժամանակ, նույնպես դժվար է կոտրել: Հեշտ է ընդհանուր առմամբ ձեռքով պարզել, թե ինչ են AI-ի էթիկայի կանոնները և ինչպես պետք է դրանք ընդհանուր առմամբ պահպանվեն, մինչդեռ AI կոդավորման մեջ շատ ավելի բարդ իրավիճակ է, որը պետք է լինի իրական ռետինը, որը համապատասխանում է ճանապարհին:

AI-ի էթիկայի սկզբունքները պետք է օգտագործվեն արհեստական ​​ինտելեկտի մշակողների կողմից, ինչպես նաև նրանք, ովքեր կառավարում են AI-ի զարգացման ջանքերը, և նույնիսկ նրանք, ովքեր, ի վերջո, կիրառում և պահպանում են AI համակարգերը: Բոլոր շահագրգիռ կողմերը AI-ի զարգացման և օգտագործման ողջ ցիկլի ընթացքում համարվում են Էթիկական AI-ի հաստատված նորմերին պահպանելու շրջանակում: Սա կարևոր կարևոր կետ է, քանի որ սովորական ենթադրությունն այն է, որ «միայն կոդավորողները» կամ նրանք, ովքեր ծրագրավորում են AI-ն, ենթակա են հավատարիմ մնալու AI-ի էթիկայի հասկացություններին: Ինչպես արդեն նշվեց, AI-ի մշակման և դաշտի մշակման համար անհրաժեշտ է գյուղ, և որի համար ամբողջ գյուղը պետք է տիրապետի և պահպանի AI-ի էթիկայի կանոնները:

Եկեք նաև համոզվենք, որ մենք նույն էջում ենք այսօրվա AI-ի բնույթի վերաբերյալ:

Այսօր չկա որևէ AI, որը զգայուն է: Մենք սա չունենք: Մենք չգիտենք, թե արդյոք հնարավո՞ր է խելացի AI-ն: Ոչ ոք չի կարող տեղին կանխագուշակել, թե արդյոք մենք կհասնենք խելամիտ AI-ին, և ոչ էլ արդյոք զգայական AI-ն ինչ-որ կերպ հրաշքով ինքնաբերաբար կառաջանա հաշվողական ճանաչողական գերնոր աստղի տեսքով (սովորաբար կոչվում է եզակիություն, տե՛ս իմ լուսաբանումը այստեղ. հղումն այստեղ).

AI-ի տեսակը, որի վրա ես կենտրոնանում եմ, բաղկացած է ոչ զգայուն AI-ից, որն այսօր ունենք: Եթե ​​ուզենայինք կատաղի ենթադրություններ անել զգայուն AI, այս քննարկումը կարող է գնալ արմատապես այլ ուղղությամբ: Զգացող AI-ն ենթադրաբար մարդկային որակի կլիներ: Պետք է հաշվի առնել, որ զգայուն AI-ն մարդու ճանաչողական համարժեքն է: Ավելին, քանի որ ոմանք ենթադրում են, որ մենք կարող ենք ունենալ սուպեր-խելացի AI, կարելի է պատկերացնել, որ այդպիսի AI-ն կարող է ավելի խելացի լինել, քան մարդիկ (սուպեր-խելացի AI-ի իմ հետազոտության համար, տես. լուսաբանումն այստեղ).

Եկեք ամեն ինչ ավելի պարզ պահենք և հաշվի առնենք այսօրվա հաշվողական ոչ զգայուն AI-ն:

Գիտակցեք, որ այսօրվա AI-ն ի վիճակի չէ «մտածել» մարդկային մտածողությանը հավասար: Երբ դուք շփվում եք Alexa-ի կամ Siri-ի հետ, խոսակցական կարողությունները կարող են նման լինել մարդկային կարողություններին, բայց իրականությունն այն է, որ այն հաշվողական է և չունի մարդկային ճանաչողություն: AI-ի վերջին դարաշրջանը լայնորեն օգտագործել է մեքենայական ուսուցում (ML) և Deep Learning (DL), որոնք օգտագործում են հաշվողական օրինաչափությունների համընկնումը: Սա հանգեցրել է արհեստական ​​ինտելեկտի համակարգերի, որոնք ունեն մարդու նման հակումների տեսք: Միևնույն ժամանակ, այսօր չկա որևէ արհեստական ​​բանականություն, որն ունի ողջամտության նմանություն և ոչ էլ ունի ուժեղ մարդկային մտածողության ճանաչողական հրաշք:

ML/DL-ը հաշվողական օրինաչափությունների համապատասխանության ձև է: Սովորական մոտեցումն այն է, որ դուք հավաքում եք տվյալներ որոշումներ կայացնելու առաջադրանքի վերաբերյալ: Դուք սնուցում եք տվյալները ML/DL համակարգչային մոդելների մեջ: Այդ մոդելները ձգտում են գտնել մաթեմատիկական օրինաչափություններ: Այդպիսի օրինաչափություններ գտնելուց հետո, եթե գտնվեն, ապա արհեստական ​​ինտելեկտի համակարգը կօգտագործի այդ օրինաչափությունները նոր տվյալների հանդիպելիս: Նոր տվյալների ներկայացումից հետո «հին» կամ պատմական տվյալների վրա հիմնված օրինաչափությունները կիրառվում են ընթացիկ որոշում կայացնելու համար:

Կարծում եմ, դուք կարող եք կռահել, թե ուր է սա գնում: Եթե ​​մարդիկ, ովքեր որոշումներ են կայացնում, իրենց մեջ ներդնում են անբարենպաստ կողմնակալություն, ապա հավանականությունն այն է, որ տվյալներն արտացոլում են դա նուրբ, բայց նշանակալի ձևերով: Մեքենայի ուսուցումը կամ խորը ուսուցման հաշվողական օրինաչափությունների համընկնումը պարզապես կփորձի համապատասխանաբար մաթեմատիկորեն նմանակել տվյալները: Առողջ դատողության կամ AI-ի կողմից ստեղծված մոդելավորման այլ զգալի ասպեկտներ ինքնին չկա:

Ավելին, AI մշակողները նույնպես կարող են չհասկանալ, թե ինչ է կատարվում: ML/DL-ի գաղտնի մաթեմատիկան կարող է դժվարացնել այժմ թաքնված կողմնակալությունների բացահայտումը: Դուք իրավամբ հույս կունենաք և ակնկալում եք, որ AI մշակողները կփորձարկեն պոտենցիալ թաղված կողմնակալության համար, թեև դա ավելի բարդ է, քան կարող է թվալ: Մեծ հավանականություն կա, որ նույնիսկ համեմատաբար լայնածավալ փորձարկումների դեպքում, ML/DL-ի օրինաչափությունների համապատասխանող մոդելներում դեռևս առկա կլինեն կողմնակալություններ:

Դուք կարող եք ինչ-որ չափով օգտագործել աղբի մեջ աղբի դուրս գալու հայտնի կամ տխրահռչակ ասացվածքը: Բանն այն է, որ սա ավելի շատ նման է կողմնակալություններին, որոնք նենգորեն ներարկվում են որպես AI-ի մեջ ընկղմված կողմնակալություններ: AI-ի որոշումների կայացման ալգորիթմը (ADM) աքսիոմատիկորեն ծանրաբեռնված է անհավասարություններով:

Ոչ լավ.

Եկեք վերադառնանք տաք կարտոֆիլի և արհեստական ​​ինտելեկտի մեջ դրա հնարավոր աղետալի օգտագործմանը մեր ուշադրությանը: Կա նաև դժբախտություն, որը կարող է թաքնվել նաև տաք կարտոֆիլի հնարքի մեջ:

Որպես արագ ամփոփում տաք կարտոֆիլի գամբիտի AI դրսևորման մասին.

  • Արհեստական ​​ինտելեկտը և մարդն աշխատում են համատեղ առաջադրանքի վրա
  • AI-ն որոշ ժամանակ վերահսկում է
  • Մարդը օղակի մեջ որոշ ժամանակ վերահսկում է
  • AI-ի և մարդու միջև կա փոխանցման արձանագրության ինչ-որ ձև
  • Հանձնումը կարող է շատ տեսանելի լինել, կամ կարող է լինել նուրբ և գրեթե թաքնված
  • Այս ամենը սովորաբար իրական ժամանակի համատեքստում է (ինչ-որ բան ակտիվորեն ընթանում է)

Այստեղ առաջնային ուշադրությունն այն է, երբ հանձնումը հիմնականում տաք կարտոֆիլ է, և AI-ն նախընտրում է հանկարծակի վերահսկողությունը հանձնել մարդուն: Խնդրում ենք նկատի ունենալ, որ ես ավելի ուշ կներկայացնեմ նաև մյուս կողմը, այն է, որ մարդու վերահսկողությունը AI-ին որպես տաք կարտոֆիլ հանձնելը:

Նախ, մտածեք, թե ինչ կարող է պատահել, երբ արհեստական ​​ինտելեկտը տաք կարտոֆիլի փոխանցում է կատարում մարդուն, ով գտնվում է հանգույցում:

Ես պատրաստվում եմ մարդուն վերաբերել որպես «մարդը օղակի մեջ», քանի որ ասում եմ, որ մարդն արդեն իսկ ընթացիկ գործող գործունեության մի մասն է կազմում: Մենք կարող ենք ունենալ այլ սցենարներ, երբ մարդուն, ով հատկապես ներգրավված չի եղել այդ գործունեության մեջ, միգուցե ամբողջ գործին անծանոթ է, AI-ն ստանում է տաք կարտոֆիլը, ուստի հիշեք, որ այս միջավայրի այլ համեր գոյություն ունեն:

Եթե ​​ես ձեզ տաք կարտոֆիլ հանձնեի և ցանկանայի դա անել ողջամիտ ձևով, երևի ձեզ կզգուշացնեի, որ պատրաստվում եմ բաներ հանձնել ձեզ: Ավելին, ես կփորձեի դա անել, եթե անկեղծորեն հավատայի, որ դուք տաք կարտոֆիլ ունենալն ընդհանուր առմամբ ավելի լավն է, քան այն, որ այն իմն էի: Ես մտովի կհաշվեի՝ դու պիտի ունենաս, թե ես շարունակեմ։

Պատկերացրեք բասկետբոլի խաղ: Ես և դու նույն թիմում ենք։ Մենք հուսով ենք, որ միասին կաշխատենք, որպեսզի փորձենք հաղթել խաղը: Ընդամենը մի քանի վայրկյան է մնացել ժամացույցին, և մեզ անհրաժեշտ է գոլ խփել, հակառակ դեպքում մենք կկորցնենք խաղը: Ես դիրքավորվում եմ վերջին կրակոցն անելու համար։ Պե՞տք է այդպես վարվեմ, թե՞ գնդակը փոխանցեմ քեզ, և դու կատարե՞ս վերջին հարվածը:

Եթե ​​ես ավելի լավ բասկետբոլիստ եմ և ավելի մեծ շանսեր ունենամ խփելու հարվածը, հավանաբար պետք է պահեմ բասկետբոլը և փորձեմ կատարել հարվածը: Եթե ​​դու ինձնից լավ բասկետբոլիստ ես, ես հավանաբար պետք է գնդակը փոխանցեմ քեզ և թույլ տամ, որ դու կատարես հարվածը: Առաջին պլան են մղվում այլ նկատառումներ, օրինակ՝ մեզանից ով է ավելի լավ դիրքում կորտում հարվածը կատարելու համար, գումարած՝ արդյոք մեզանից մեկը հյուծված է, քանի որ խաղը գրեթե ավարտված է և կարող է մաշված լինել և ոչ պատշաճ մակարդակի վրա: նրանց կրակոցները։ և այլն:

Ունենալով այդ բոլոր գործոնները կատաղի պահին, ես պետք է որոշեմ՝ պահել գնդակը, թե փոխանցել այն քեզ:

Խորապես գիտակցեք, որ այս սցենարում ժամացույցը վճռորոշ նշանակություն ունի: Դուք և ես երկուսս էլ բախվում ենք ծայրահեղ ժամանակին պատասխանի: Ամբողջ խաղն այժմ գծում է: Երբ ժամացույցը վերջանում է, մենք կա՛մ հաղթել ենք, որովհետև մեզանից մեկը կատարել է կրակոցը, կա՛մ պարտվել ենք, քանի որ այն չենք խորտակել: Ես կարող եմ լինել հերոսը, եթե խորտակեմ զամբյուղը: Կամ դու կարող ես հերոս լինել, եթե ես գնդակը փոխանցեմ քեզ, և դու այն խորտակես:

Կա նաև այծի կողմը կամ բացասական կողմերը: Եթե ​​ես պահեմ գնդակը և բաց թողնեմ հարվածը, բոլորը կարող են ինձ մեղադրել այծի դերում կամ ամբողջ թիմին հիասթափեցնելու մեջ: Մյուս կողմից, եթե ես գնդակը փոխանցեմ քեզ, և դու բաց թողնես հարվածը, լավ, դու դառնում ես այծ: Սա կարող է բոլորովին անարդար լինել ձեր հանդեպ, քանի որ ես ստիպեցի ձեզ լինել վերջին կրակողը և կատարել վերջին կրակոցը:

Դու հաստատ կիմանաս, որ ես քեզ դրել եմ այդ անհաջող դիրքի մեջ: Եվ չնայած բոլորը կարող էին տեսնել, թե ինչպես եմ դա անում, նրանք պարտավոր են կենտրոնանալ միայն վերջին մարդու վրա, ով ուներ գնդակը: Ես, հնարավոր է, անվճար կսահեի: Ոչ ոք չէր հիշի, որ ես վերջին պահին քեզ եմ փոխանցել գնդակը։ Նրանք միայն կհիշեն, որ դու ունես գնդակը և պարտվել ես խաղը, քանի որ դու չէիր կատարել հարվածը։

Լավ, այնպես որ ես փոխանցում եմ գնդակը քեզ:

Ինչու ես այդպես վարվեցի:

Սա որոշելու հեշտ ճանապարհ չկա:

Իմ իսկական մտադրությունը կարող է լինել այն, որ ես չէի ուզում խրվել որպես այծ, և ես որոշեցի ամբողջ ճնշումը գործադրել ձեր վրա: Երբ ինձ հարցրին, թե ինչու ես փոխանցեցի գնդակը, ես կարող էի պնդել, որ դա արեցի, քանի որ կարծում էի, որ դու ինձնից լավ հրաձիգ ես (բայց, եկեք ձևացնենք, որ ես դրան ընդհանրապես չեմ հավատում): Կամ ես կարծում էի, որ դու ինձանից ավելի լավ վիճակում ես (եկեք ձևացնենք, որ ես սա էլ չեմ մտածել): Ոչ ոք երբեք չի իմանա, որ ես իրականում պարզապես փորձում էի խուսափել տաք կարտոֆիլով խրվելուց:

Իրերի արտաքին տեսակետից ոչ ոք չէր կարող հեշտությամբ հասկանալ գնդակը ձեզ փոխանցելու իմ իրական հիմնավորումը: Միգուցե ես անմեղորեն դա արեցի, քանի որ հավատում էի, որ դու լավագույն խաղացողն ես: Դա մեկ անկյուն է: Միգուցե ես այդպես վարվեցի, որովհետև չէի ուզում, որ բոլորը ինձ պարտվող անվանեին հարվածը հնարավոր բաց թողնելու համար, ուստի ես գնդակը հասցրի քեզ և մտածեցի, որ դա մեծ թեթևացում էր ինձ համար: Արդյո՞ք ես իսկապես հոգ էի տանում ձեր մասին, դա բոլորովին այլ հարց է:

Այժմ մենք կարող ենք լրացուցիչ մանրամասներ ավելացնել AI-ի հետ կապված տաք կարտոֆիլին.

  • Արհեստական ​​ինտելեկտը ընտրում է վերջին պահին վերահսկողություն տալ մարդուն, ով գտնվում է հանգույցում
  • Վերջին պահը կարող է արդեն շատ դուրս լինել մարդու համար կենսունակ ցանկացած գործողությունից
  • «Մարդը օղակի մեջ» վերահսկում է, բայց որոշ չափով սխալ՝ հանձնման ժամանակի պատճառով

Մտածեք այս մասին մի պահ:

Ենթադրենք, որ արհեստական ​​ինտելեկտի համակարգը և մարդն աշխատում են իրական ժամանակում մի առաջադրանքի վրա, որը ներառում է գործարանում լայնածավալ մեքենայի գործարկում: Արհեստական ​​ինտելեկտը հայտնաբերում է, որ մեքենան փչանում է: Փոխարենը, որ AI-ն շարունակի պահպանել վերահսկողությունը, AI-ն կտրուկ վերահսկողությունը հանձնում է մարդուն: Այս գործարանի մեքենաներն արագորեն գնում են դեպի մաքուր քայքայումը, և մարդուն ժամանակ չի մնում ուղղիչ գործողություններ ձեռնարկելու համար:

Արհեստական ​​ինտելեկտը տաք կարտոֆիլը հանձնել է մարդուն օղակի մեջ և խցանել է մարդուն իսկական տաք կարտոֆիլով, որպեսզի հանգամանքներն այլևս մարդկայնորեն հնարավոր չէ հաղթահարել: Տեգ, դու ես դա, անցնում է հին գիծը, երբ մանուկ հասակում պիտակի խաղեր ես խաղում: Մարդը, կարելի է ասել, պիտակավորված է խառնաշփոթով:

Ճիշտ այնպես, ինչպես իմ օրինակը բասկետբոլի խաղի մասին:

Ինչու՞ AI-ն կատարեց հանձնումը:

Դե, ի տարբերություն այն դեպքերի, երբ մարդը կտրուկ հանձնում է բասկետբոլի գնդակը և հետո մի վայրի ձեռքով թափահարում, թե ինչու է դա արել, մենք սովորաբար կարող ենք ուսումնասիրել արհեստական ​​ինտելեկտի ծրագրավորումը և պարզել, թե ինչն է հանգեցրել AI-ին այս տեսակի տաք կարտոֆիլի փոխանցմանը:

Արհեստական ​​ինտելեկտի մշակողը կարող էր նախապես որոշել, որ երբ AI-ն իսկապես վատ դրության մեջ է ընկնում, AI-ն պետք է շարունակի վերահսկողություն սահմանել «մարդկանց օղակում»: Սա միանգամայն խելամիտ և ողջամիտ է թվում: Մարդը կարող է լինել «լավ խաղացողը» խաղադաշտում: Մարդիկ կարող են օգտագործել իրենց ճանաչողական կարողությունները՝ հնարավոր ցանկացած խնդիր լուծելու համար: AI-ն, հնարավոր է, հասել է իր ծրագրավորման սահմաններին, և այլ կառուցողական բան չկա, որ նա կարող է անել իրավիճակում:

Եթե ​​արհեստական ​​ինտելեկտը փոխանցել է մեքենան գործարկվելուն մնացել է մեկ րոպե, ապա միգուցե մեկ րոպեն բավականաչափ երկար է, որ մարդն անընդմեջ կարողանա շտկել իրերը: Ենթադրենք, սակայն, որ արհեստական ​​ինտելեկտը հանձնումը կատարեց մինչև երեք վայրկյան: Ի՞նչ եք կարծում, մարդը կարո՞ղ է արձագանքել այդ ժամանակահատվածում: Քիչ հավանական է։ Համենայն դեպս, ամեն ինչ ավելի քիչ թեթևացնելու համար, ենթադրենք, որ մարդուն շղթայակապին փոխանցելը տեղի է ունեցել այն ժամանակ, երբ մնացել է մի քանի նանվայրկյան (նանվայրկյանը վայրկյանի մեկ միլիարդերորդականն է, որը համեմատաբար արագ թարթում է. աչքի երկարությունը 300 միլիվայրկյան է):

Կարո՞ղ է մարդն անընդմեջ բավականաչափ արձագանքել, եթե արհեստական ​​ինտելեկտը տաք կարտոֆիլը հանձնել է ընդամենը անչափահաս վայրկյանների ընթացքում՝ որևէ բացահայտ գործողություն կատարելու համար:

Ոչ.

Հանձնումը ավելի շատ կեղծիք է, քան այլ կերպ կարող էր թվալ:

Իրականում, հանձնումը ոչ մի օգուտ չի բերի, երբ խոսքը վերաբերում է ծանր իրավիճակին: AI-ն մարդուն ստիպել է դառնալ այծ:

AI որոշ մշակողներ չեն մտածում այս մասին, երբ նրանք մշակում են իրենց AI-ն: Նրանք (սխալ) երանելիորեն հաշվի չեն առնում, որ ժամանակը վճռորոշ գործոն է։ Այն ամենը, ինչ նրանք անում են, ծրագրում են հանձնում, երբ ամեն ինչ դժվարանում է: Երբ արհեստական ​​ինտելեկտին ոչինչ չի մնում կառուցողականորեն անելու, գնդակը նետեք մարդու խաղացողին:

AI ծրագրավորողները կարող են չմտածել այս մասին AI-ի կոդավորման պահին, և նրանք այնուհետև հաճախ կրկնակի ձախողում են՝ չկարողանալով կատարել թեստավորում, որը բացահայտում է դա: Այն ամենը, ինչ ցույց է տալիս նրանց փորձարկումն այն է, որ AI-ն «պարտասխանաբար» կատարել է փոխանցում, երբ հասել են AI-ի սահմանները: Voila, AI-ն ենթադրվում է, որ լավն է և պատրաստ է գնալու: Թեստավորումը չի ներառում իրական մարդուն, որը դրվել է այդ աննախանձելի և անհնար դիրքում: Մարդկանց ցիկլի փորձարկման պատշաճ գործընթաց չկար, որը կարող էր բողոքել, որ վերջին պահին, կամ իսկապես վերջին պահի անցած այս աչքը թարթելը նրանց քիչ օգուտ բերեց կամ ոչ մի օգուտ:

Իհարկե, որոշ AI ծրագրավորողներ խելամտորեն կքննարկեն այս տեսակի դժվարությունները, խելամտորեն այդպես է:

Հանելուկի շուրջ մտածելուց հետո նրանք կշարունակեն ծրագրավորել AI-ն այսպես վարվելու համար, այնուամենայնիվ:

Ինչու:

Որովհետև ուրիշ անելիք չկա, գոնե իրենց մտքում։ Երբ մնացած ամեն ինչ ձախողվում է, վերահսկեք մարդուն: Միգուցե հրաշք տեղի ունենա. Այնուամենայնիվ, էությունը կայանում է նրանում, որ դա չի անհանգստացնում արհեստական ​​ինտելեկտի մշակողին, և նրանք մարդուն տալիս են վերջին հնարավորությունը՝ հաղթահարելու առկա խառնաշփոթը: AI մշակողը լվանում է ձեռքերը այն ամենից, ինչ տեղի է ունենում դրանից հետո:

Ես ուզում եմ պարզաբանել, որ AI մշակողները այս տաք կարտոֆիլի դիզայնի միակ մշակողները չեն: Կան մի շարք այլ շահագրգիռ կողմեր, որոնք սեղան են դնում դրա համար: Հավանաբար համակարգերի վերլուծաբանը, ով կատարել է բնութագրերի և պահանջների վերլուծությունը, հայտարարել է, որ դա այն է, ինչ պետք է անի AI-ն: Ներգրավված AI մշակողները համապատասխանաբար ստեղծեցին AI-ն: AI ծրագրի ղեկավարը կարող էր դա մտածել: Գործադիրներն ու ղեկավարությունը, որոնք վերահսկում են AI-ի զարգացումը, կարող էին դա մտածել:

Բոլորը ինտելեկտուալ ինտելեկտի զարգացման ողջ ցիկլի ընթացքում կարող էին առաջ տանել տաք կարտոֆիլի այս նույն ձևավորումը: Արդյոք ինչ-որ մեկը դա նկատել է, մենք հստակ չենք կարող ասել: Եթե ​​նրանք նկատեին, նրանք կարող էին պիտակվել որպես մերժողներ և մի կողմ թողնել: Ուրիշները կարող էին այդ հարցի մասին իրենց ուշադրությունը հրավիրել, բայց նրանք չհասկացան արձագանքները: Նրանք զգացին, որ դա մի փոքր տեխնիկական մանրուք էր, որը նրանց շրջանակում չէր:

Այս ոչ պաշտոնական «պատճառների» ցանկին ես կավելացնեմ մի շատ ավելի ստոր հնարավորություն:

AI Hot Potato Syndrome-ը երբեմն դիտավորյալ կիրառվում է, քանի որ արհեստական ​​արհեստական ​​ինտելեկտը կազմողները ցանկանում էին իրենց բուռն պնդում ունենալ արժանահավատ հերքման մասին:

Պատրաստվեք հեքիաթի այս հատվածին:

Գործարանային տեխնիկայի դեպքում, որը ցրվում է, անպայման շատ մատնացույց կանեն, թե ով է պատասխանատու կատարվածի համար: Մեքենաները գործարկելու առումով մենք ունեինք AI համակարգ, որն անում էր դա, և մենք ունեինք մարդասպանություն, որն անում էր դա: Սրանք մեր երկու բասկետբոլիստներն են, փոխաբերական իմաստով։

Ժամացույցը վազում էր, իսկ տեխնիկան կանգնած էր կաբումի շեմին: Ենթադրենք, որ դուք և ես գիտենք, որ արհեստական ​​ինտելեկտը հանձնում է մարդուն՝ ցիկլի մեջ՝ դա անելով այն ժամանակ, երբ մարդուն մնացել է բավարար գործողություններ՝ աղետը շտկելու կամ խուսափելու համար: Ուրիշ ոչ ոք չի գիտակցում, որ դա տեղի է ունեցել:

AI-ն արտադրող ընկերությունը կարող է ցանկացած դեպքում անմիջապես հայտարարել, որ իրենք մեղավոր չեն, քանի որ մարդն ուներ վերահսկողություն: Ըստ նրանց անբասիր գրառումների՝ Կաբումի պահին AI-ն չէր վերահսկում: Մարդն էր. Հետևաբար, ակնհայտորեն ակնհայտ է, որ մարդն է մեղավոր։

Արդյո՞ք AI ընկերությունը հիմնականում ստում է այս բացահայտ պնդումն անելիս:

Չէ, կարծես թե ճշմարտությունն են ասում։

Հարցին, թե նրանք վստահ են, որ AI-ն չի վերահսկվում, ընկերությունը բարձրաձայն և հպարտորեն կհայտարարեր, որ AI-ն ընդհանրապես չի վերահսկվում: Նրանք ունեն այս պնդման փաստաթղթավորված ապացույց (ենթադրելով, որ AI-ն պահում էր միջադեպի գրանցամատյանը): Իրականում, AI ընկերության ղեկավարները կարող են զզվանքով բարձրացնել իրենց հոնքերը, որ որևէ մեկը կվիճարկի նրանց ամբողջականությունը այս հարցում: Նրանք պատրաստ կլինեին երդվել իրենց սուրբ երդման վրա, որ AI-ն էր Նշում վերահսկողության տակ. «Մարդը օղակի մեջ» ուներ վերահսկողություն:

Ես վստահ եմ, որ դուք տեսնում եք, թե որքան ապակողմնորոշիչ կարող է լինել սա:

Այո, մարդուն հանձնվել է հսկողությունը։ Տեսականորեն մարդը վերահսկում էր: AI-ն այլևս չէր վերահսկում: Բայց հասանելի ժամանակի և ծանուցման բացակայությունը սա շատ դատարկ պահանջ է դարձնում:

Սրա գեղեցկությունը, AI ստեղծողի տեսանկյունից, կլինի այն, որ քչերը կարող են վիճարկել առաջարկվող պահանջները: AI ստեղծողը կարող է չհրապարակել միջադեպի մատյանները: Այդպես վարվելը կարող է թուլացնել կեղծված իրավիճակը: Տեղեկամատյանները վիճարկվում են որպես մտավոր սեփականություն (IP) կամ այլ սեփականության և գաղտնի բնույթի: Ընկերությունը հավանաբար կպնդի, որ եթե տեղեկամատյանները ցուցադրվեն, դա կցուցադրի իրենց AI-ի գաղտնի սոուսը և կզրկվի նրանց թանկարժեք IP-ից:

Պատկերացրե՛ք, թե ինչ վիճակում է գտնվում խեղճ մարդուն: Նրանք շփոթված են, որ բոլորն իրենց մեղադրում են այն բանի համար, որ թույլ են տվել, որ իրավիճակը դուրս գա: AI-ն «ճիշտ բան արեց» և կառավարումը հանձնեց մարդուն: Հնարավոր է, որ դա եղել է այն, ինչ ասում էին տեխնիկական բնութագրերը (կրկին, թեև, ակնոցները սխալ էին, հաշվի չառնելով ժամանակի և իրագործելիության գործոնները): Տեղեկամատյանները, որոնք չեն հրապարակվել, բայց պնդում են, որ արհեստական ​​արհեստական ​​ինտելեկտի արտադրողը երկաթյա է, վկայում են այն բացարձակ փաստի մասին, որ մարդուն կառավարել է AI-ն:

Դուք կարող եք սա հայտարարել որպես ողորմելի հարված շփոթված մարդու վրա, որը գրեթե անկասկած տանելու է անկումը:

Հավանականությունն այն է, որ միայն այն դեպքում, եթե դա դիմի դատարան, տեղի ունեցածի իրականությունը կբացահայտվի: Եթե ​​խորամանկ օրինական բիգլերը տեղյակ են այս տեսակի համերգների մասին, նրանք կփորձեն օրինական ճանապարհով ձեռք բերել գերանները: Նրանք պետք է փորձաքննվեն (մի բան, որ ես ժամանակ առ ժամանակ անում էի) տեղեկամատյանները վերծանելու համար: Միայն տեղեկամատյանները կարող են բավարար չլինել: Տեղեկամատյանները կարող են մշակվել կամ փոփոխվել կամ դիտավորյալ ձևավորվել՝ մանրամասները հստակ չցուցադրելու համար: Որպես այդպիսին, AI ծածկագիրը նույնպես կարող է խորանալ:

Միևնույն ժամանակ, իրավական բացահայտման այս տանջալից և երկարատև գործընթացի ընթացքում մարդն իրոք վատ տեսք կունենա: Լրատվամիջոցները կներկայացնեն մարդուն որպես անպատասխանատու, կորցրած գլուխը, չկարողանալով ջանասեր լինել և պետք է լիակատար պատասխանատվության ենթարկվեն: Հնարավոր է, որ ամիսներ կամ տարիներ շարունակ, այս գործընթացի ընթացքում, այդ անձը դեռ կլինի այն մարդը, ում վրա բոլորը մեղադրական մատը ցույց կտան: Հնարավոր է, որ գարշահոտը երբեք չվերանա:

Նկատի ունեցեք նաև, որ նույն հանգամանքը հեշտությամբ կարող է կրկնվել: Եւ կրկին. Ենթադրելով, որ AI ստեղծողը չի փոխել AI-ն, ամեն անգամ, երբ վերջին րոպեին նմանատիպ իրավիճակ է ստեղծվում, AI-ն պատրաստվում է անել այդ առանց ժամանակի ձախողումը: Կարելի է հուսալ, որ այս իրավիճակները հաճախակի չեն լինում: Հազվագյուտ դեպքերում, երբ դա տեղի է ունենում, մարդ-ընտանիքը շարունակում է մնալ հարմար աշնանային տղան:

Դա սատանայական հնարք է։

Դուք կարող եք պնդել, որ AI ստեղծողը ոչ մի սխալ բան չի արել: Նրանք ճշմարտությունն են ասում։ AI-ն հրաժարվեց վերահսկողությունից. Այնուհետև համարվում էր, որ մարդը կառավարում է: Դրանք են փաստերը։ Իմաստ չունի վիճարկել։

Անկախ նրանից, թե ինչ-որ մեկը իմաստուն է և տալիս է դժվար հարցերը, գումարած՝ արդյոք AI ստեղծողը պատասխանում է այդ հարցերին որևէ պարզ ձևով, սա մի բան է, որը, կարծես, հազվադեպ է պատահում:

Հարցերը ներառում են.

  • Ե՞րբ է արհեստական ​​ինտելեկտը փոխանցել «human-in-the-loop»-ին:
  • Ի՞նչ ծրագրային հիմունքներով է AI-ն կատարել հանձնումը:
  • Արդյո՞ք մարդուն բավականաչափ ժամանակ տրվեց վերահսկողությունը վերցնելու համար:
  • Ինչպե՞ս է նախագծվել և մշակվել AI-ն այս տարաձայնությունների համար:
  • Եվ այսպես շարունակ:

Որոշ չափով, այդ իսկ պատճառով AI-ի էթիկան և էթիկական AI-ն այդքան կարևոր թեմա է: AI-ի էթիկայի կանոնները մեզ ստիպում են զգոն մնալ: AI տեխնոլոգները երբեմն կարող են զբաղված լինել տեխնոլոգիայով, մասնավորապես՝ բարձր տեխնոլոգիաների օպտիմալացումով: Նրանք պարտադիր չէ, որ հաշվի առնեն հասարակության ավելի մեծ ճյուղավորումները: Արհեստական ​​ինտելեկտի էթիկայի մտածելակերպ ունենալը և դա անբաժան կերպով կատարելը AI-ի զարգացման և դաշտի համար կենսական նշանակություն ունի համապատասխան AI արտադրելու համար, ներառյալ (գուցե զարմանալիորեն կամ հեգնանքով) գնահատումը, թե ինչպես է AI էթիկան ընդունվում ընկերությունների կողմից:

Բացի արհեստական ​​ինտելեկտի էթիկայի կանոնների կիրառումից, ընդհանուր առմամբ, կա համապատասխան հարց, թե արդյոք մենք պետք է ունենանք AI-ի տարբեր կիրառություններ կարգավորող օրենքներ: Նոր օրենքներ են մշակվում դաշնային, նահանգային և տեղական մակարդակներում, որոնք վերաբերում են արհեստական ​​ինտելեկտի մշակման տիրույթին և բնույթին: Նման օրենքներ մշակելու և ընդունելու ջանքերը աստիճանաբար են ընթանում: AI-ի էթիկան ծառայում է որպես նվազագույնը հաշվի առնելով, և գրեթե անկասկած որոշ չափով ուղղակիորեն կներառվի այդ նոր օրենքներում:

Տեղյակ եղեք, որ ոմանք համառորեն պնդում են, որ մեզ պետք չեն նոր օրենքներ, որոնք ընդգրկում են արհեստական ​​ինտելեկտը, և որ մեր գործող օրենքները բավարար են: Իրականում, նրանք նախազգուշացնում են, որ եթե մենք հաստատենք AI-ի այս օրենքներից մի քանիսը, մենք կսպանենք ոսկե սագին՝ սահմանափակելով արհեստական ​​ինտելեկտի առաջընթացը, որը հսկայական հասարակական առավելություններ է տալիս:

Այս ծանրակշիռ քննարկման այս պահին, ես գրազ կգամ, որ դուք ցանկանում եք որոշ լրացուցիչ պատկերավոր օրինակներ, որոնք կարող են ցուցադրել այս թեման: Կա մի հատուկ և վստահաբար սիրված օրինակների հավաքածու, որն ինձ հոգեհարազատ է: Տեսեք, որպես արհեստական ​​ինտելեկտի փորձագետ, ներառյալ էթիկական և իրավական հետևանքները, ինձ հաճախ խնդրում են բացահայտել իրատեսական օրինակներ, որոնք ցույց են տալիս արհեստական ​​ինտելեկտի էթիկայի երկընտրանքները, որպեսզի թեմայի տեսական բնույթն ավելի հեշտ ընկալվի: Ամենաոգեշնչող ոլորտներից մեկը, որը վառ կերպով ներկայացնում է այս էթիկական արհեստական ​​ինտելեկտի խնդիրը, AI-ի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելն է: Սա կծառայի որպես հարմար օգտագործման դեպք կամ օրինակ՝ թեմայի շուրջ լայն քննարկման համար:

Ահա մի ուշագրավ հարց, որի մասին արժե մտածել. Արդյո՞ք արհեստական ​​ինտելեկտի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելը որևէ բան լուսաբանում է AI Hot Potato Syndrome-ի մասին, և եթե այո, ի՞նչ է սա ցույց տալիս:

Թույլ տվեք մի պահ բացել հարցը:

Նախ, նշեք, որ իրական ինքնակառավարվող մեքենայի մեջ մարդ վարորդ չկա: Հիշեք, որ իսկական ինքնակառավարվող մեքենաները վարում են AI վարորդական համակարգի միջոցով: Ղեկին մարդ վարորդի կարիք չկա, մեքենան վարելու համար մարդ չկա: Ինքնավար տրանսպորտային միջոցների (ԱՎ) և հատկապես ինքնակառավարվող մեքենաների իմ լայնածավալ և շարունակական լուսաբանման համար տե՛ս. հղումն այստեղ.

Ես կցանկանայի ավելի պարզաբանել, թե ինչ է նշանակում, երբ ես վերաբերում եմ իրական ինքնակառավարվող մեքենաներին:

Հասկանալով ինքնակառավարվող մեքենաների մակարդակները

Որպես պարզաբանում, իսկական ինքնակառավարվող մեքենաներն այն մեքենաներն են, որտեղ AI-ն ամբողջությամբ ինքնուրույն է վարում մեքենան, և վարորդական առաջադրանքի ընթացքում մարդկային օգնություն չի ցուցաբերվում:

Այս առանց վարորդի տրանսպորտային միջոցները համարվում են 4-րդ և 5-րդ մակարդակներ (տե՛ս իմ բացատրությունը այս հղումը Մականուն), մինչդեռ մեքենան, որը մարդկային վարորդից պահանջում է համատեղ ջանքեր գործադրել, սովորաբար դիտարկվում է 2-րդ կամ 3-րդ մակարդակում: Մեքենաները, որոնք համատեղ կատարում են վարորդական առաջադրանքը, նկարագրվում են որպես կիսաինքնավար և սովորաբար պարունակում են մի շարք մեքենաներ: ավտոմատացված հավելումներ, որոնք կոչվում են ADAS (Վարորդների օգնության առաջադեմ համակարգեր):

5-րդ մակարդակում դեռ իրական ինքնակառավարվող մեքենա չկա, և մենք դեռ չգիտենք, թե արդյոք դա հնարավոր կլինի հասնել, և որքան ժամանակ կպահանջվի այնտեղ հասնելու համար:

Միևնույն ժամանակ, 4-րդ մակարդակի ջանքերը աստիճանաբար փորձում են որոշակի ձգողականություն ձեռք բերել՝ անցնելով շատ նեղ և ընտրովի հանրային ճանապարհային փորձարկումներ, թեև հակասություններ կան այն հարցի շուրջ, թե արդյոք այս թեստավորումն ինքնին պետք է թույլատրվի (մենք բոլորս փորձի մեջ կյանքի կամ մահվան ծովախոզուկներ ենք: ոմանք պնդում են, որ տեղի է ունենում մեր մայրուղիներում և ճանապարհների վրա, տես իմ լուսաբանումը այս հղումը Մականուն).

Քանի որ կիսաավտոմեքենաները մարդկային վարորդ են պահանջում, այդպիսի մեքենաների ընդունումը չի տարբերվի սովորական տրանսպորտային միջոցներից վարվելուց, հետևաբար, այս թեմայի շուրջ դրանց մասին ծածկելու համար ամենևին էլ նոր բան չկա (չնայած, ինչպես կտեսնեք մի ակնթարթում ընդհանուր առմամբ կիրառվում են հաջորդ կետերը):

Կիսաանվտանգ ավտոմեքենաների համար կարևոր է, որ հասարակությունը պետք է նախազգուշացվի վերջին շրջանում ի հայտ եկած անհանգստացնող կողմի մասին, մասնավորապես այն, որ չնայած այն մարդկային վարորդներին, ովքեր շարունակում են փակցնել իրենց տեսահոլովակները իրենց մասին, քնում են «Level 2» կամ «Level 3» մեքենայի ղեկին: , մենք բոլորս պետք է խուսափենք ապակողմնորոշվելուց `հավատալով, որ վարորդը կարող է իրենց ուշադրությունը հանել վարորդական առաջադրանքից` կիսաավտոմեքենան վարելիս:

Դուք պատասխանատու կողմն եք տրանսպորտային միջոցի վարման գործողությունների համար, անկախ նրանից, թե որ ավտոմատացումը կարող է տեղափոխվել 2-րդ մակարդակի կամ 3-րդ մակարդակի:

Ինքնավար մեքենաներ և AI Hot Potato Syndrome

4-րդ և 5-րդ մակարդակների իսկական ինքնագնաց տրանսպորտային միջոցների համար վարորդական գործին չի մասնակցի մարդկային վարորդ:

Բոլոր գրավյալները ուղևորներ են լինելու:

AI- ն վարում է վարումը:

Անմիջապես քննարկելու մի ասպեկտ ենթադրում է այն փաստը, որ այսօր AI- ի վարման համակարգերում ներգրավված AI- ն զգայուն չէ: Այլ կերպ ասած, AI- ն ընդհանուր առմամբ համակարգչային ծրագրավորման և ալգորիթմների հավաքածու է, և, անկասկած, ի վիճակի չէ տրամաբանել այնպես, ինչպես մարդիկ կարող են:

Ինչու՞ է այս հավելյալ շեշտադրումը արհեստական ​​ինտելեկտի մասին զգացմունքային չէ:

Քանի որ ես ուզում եմ ընդգծել, որ երբ քննարկում եմ AI շարժիչ համակարգի դերը, ես մարդկային որակներ չեմ վերագրում AI- ին: Խնդրում ենք տեղյակ լինել, որ այս օրերին շարունակական և վտանգավոր միտում կա AI- ն մարդաբանելու համար: Ըստ էության, մարդիկ մարդկային նման զգացողություն են հատկացնում այսօրվա AI- ին, չնայած անհերքելի և անառարկելի փաստին, որ այդպիսի AI դեռ գոյություն չունի:

Այդ պարզաբանմամբ դուք կարող եք պատկերացնել, որ AI վարելու համակարգը բնիկ ինչ-որ կերպ «չի իմանա» վարման կողմերի մասին: Վարորդությունն ու դրա հետևանքները պետք է ծրագրավորվեն որպես ինքնակառավարվող մեքենայի սարքավորումների և ծրագրակազմի մաս:

Եկեք սուզվենք այն անհամար ասպեկտների մեջ, որոնք սկսում են խաղալ այս թեմայի շուրջ:

Նախ, կարևոր է գիտակցել, որ ոչ բոլոր ինքնակառավարվող AI մեքենաները նույնն են: Յուրաքանչյուր ավտոարտադրող և ինքնակառավարվող տեխնոլոգիական ընկերություն իր մոտեցումն է ցուցաբերում ինքնակառավարվող մեքենաների ստեղծման հարցում: Որպես այդպիսին, դժվար է լայնածավալ հայտարարություններ անել այն մասին, թե ինչ կանեն կամ չեն անեն AI վարորդական համակարգերը:

Ավելին, ամեն անգամ, երբ նշվում է, որ արհեստական ​​ինտելեկտի կառավարման համակարգը որոշակի բան չի անում, դա հետագայում կարող է շրջանցվել այն մշակողների կողմից, որոնք իրականում ծրագրավորում են համակարգիչը հենց դա անելու համար: Քայլ առ քայլ, արհեստական ​​ինտելեկտի շարժիչ համակարգերը աստիճանաբար բարելավվում և ընդլայնվում են: Այսօր գոյություն ունեցող սահմանափակումն այլևս գոյություն չի ունենա համակարգի ապագա կրկնության կամ տարբերակի դեպքում:

Հուսով եմ, որ դա բավարար քանակությամբ զգուշացումներ է տալիս՝ հիմքում ընկնելու այն, ինչ ես պատրաստվում եմ պատմել:

Լիովին ինքնավար մեքենաների համար կարող է լինել ոչ մի հնարավորություն, որ տեղի ունենա արհեստական ​​ինտելեկտի և մարդու միջև փոխադարձ կապը, քանի որ հնարավոր է, որ մարդ չկա, որից սկսենք: Այսօրվա ինքնակառավարվող մեքենաների արտադրողներից շատերի ձգտումն է մարդ վարորդին ամբողջությամբ հեռացնել վարորդական աշխատանքից: Տրանսպորտային միջոցը չի պարունակի նույնիսկ մարդկանց համար հասանելի վարման կառավարում: Այդ դեպքում մարդ վարորդը, եթե ներկա լինի, չի կարողանա մասնակցել վարորդական առաջադրանքին, քանի որ նրանք չունեն որևէ վարորդական հսկողություն:

Որոշ լիովին ինքնավար տրանսպորտային միջոցների համար որոշ դիզայներ դեռ թույլ են տալիս մարդուն ներդաշնակ լինել, թեև մարդն ընդհանրապես պարտադիր չէ, որ հասանելի լինի կամ մասնակցի վարման գործընթացին: Այսպիսով, մարդը կարող է մասնակցել մեքենա վարելուն, եթե անձը դա ցանկանա։ Այնուամենայնիվ, ոչ մի պահի AI-ն կախված չէ մարդու վրա՝ վարորդական առաջադրանքներից որևէ մեկը կատարելու համար:

Կիսաինքնավար տրանսպորտային միջոցների դեպքում մարդու վարորդի և արհեստական ​​ինտելեկտի միջև ձեռք-ձեռքի փոխհարաբերություն կա: Որոշ նմուշների դեպքում մարդ վարորդը կարող է ամբողջությամբ վերցնել վարորդական կառավարումը և էապես դադարեցնել AI-ին մասնակցել վարմանը: Եթե ​​մարդ վարորդը ցանկանում է վերականգնել արհեստական ​​ինտելեկտը շարժիչի դերում, նա կարող է դա անել, չնայած դա երբեմն ստիպում է մարդուն հրաժարվել վարորդական հսկողությունից:

Կիսաինքնավար գործողության մեկ այլ ձև կհանգեցնի մարդու վարորդի և AI-ի համատեղ աշխատանքին: AI-ն վարում է, իսկ մարդը՝ քշում: Նրանք միասին են վարում: AI-ն կարող է փոխանցվել մարդուն: Մարդը կարող է հետաձգվել AI-ին:

Ինչ-որ պահի, արհեստական ​​ինտելեկտի վարման համակարգը կարող է հաշվողականորեն պարզել, որ ինքնակառավարվող մեքենան գնում է անկայուն իրավիճակի մեջ, և որ ինքնավար մեքենան պատրաստվում է վթարի:

Որպես մի կողմ, որոշ փորձագետներ շրջում են՝ պնդելով, որ ինքնակառավարվող մեքենաները չեն կարող վթարի ենթարկվել, ինչը զուտ անհեթեթություն է և վիրավորական ու սխալ բան ասելը, տես իմ լուսաբանումը այստեղ հղումն այստեղ.

Շարունակելով ինքնակառավարվող մեքենայի սցենարը, որը գնում է դեպի բախում կամ ավտովթար, AI վարորդական համակարգը կարող է ծրագրավորվել այնպես, որ վարորդական կառավարումն ամփոփ կերպով փոխանցի մարդու վարորդին: Եթե ​​մարդ վարորդի համար բավականաչափ ժամանակ կա՝ խուսափողական գործողություններ ձեռնարկելու համար, դա իսկապես կարող է խելամիտ և պատշաճ քայլ լինել AI-ի համար:

Բայց ենթադրենք, որ արհեստական ​​ինտելեկտը կատարում է հանձնումը մինչև մեկնարկը մնացած վայրկյանի մի մասը: Մարդկային վարորդի արձագանքման ժամանակը ոչ մի տեղ այնքան արագ չէ, որ համարժեք արձագանքի: Բացի այդ, եթե հրաշքով մարդը բավական արագ էր, հավանականությունն այն է, որ չկան կենսունակ խուսափողական գործողություններ, որոնք կարող են ձեռնարկվել մինչև վթարը մնացած սահմանափակ ժամանակով: Սա երկու այլ բան է. (1) մարդկային վարորդի համար գործողություն անելու համար բավարար ժամանակ, (2) անբավարար ժամանակ, որ եթե մարդկային վարորդի կողմից հնարավոր լիներ գործողություն, ապա գործողությունը կարող էր իրականացվել տրամադրված ժամանակի անբավարար քանակում:

Ընդհանուր առմամբ, սա նման է իմ ավելի վաղ քննարկմանը բասկետբոլի ազդանշանային իրավիճակի և գործարանային մեքենաների մասին, որոնք խելագարված սցենարով էին:

Սրան ավելացնենք ստոր բաղադրիչը։

Ավտոարտադրողը կամ ինքնակառավարվող տեխնոլոգիական ընկերությունը չի ցանկանում պիտակավորվել տարբեր ավտովթարներով, որոնք տեղի են ունեցել իրենց պարկի մեջ: Ինտելեկտուալ մեքենա վարելու համակարգը ծրագրված է այնպես, որ կառավարումը միշտ գցի մարդ վարորդին, անկախ նրանից, թե արդյոք մարդ վարորդին բավարար ժամանակ է հատկացնում՝ ինչ-որ բան անելու դժվարին իրավիճակում: Ամեն անգամ, երբ նման տիպի ավտովթար է տեղի ունենում, ավտոարտադրողը կամ ինքնակառավարվող տեխնոլոգիական ընկերությունը կարող է բարձրաձայն պնդել, որ մարդ վարորդը եղել է կառավարիչների մոտ, մինչդեռ AI-ն՝ ոչ:

Արհեստական ​​ինտելեկտի վարորդական համակարգերի համար նրանց փորձառությունը կարծես աստղային է:

Մեկ անգամ չէ, որ AI վարորդական համակարգը «մեղավոր» է այս ավտովթարների համար: Միշտ այդ անիծված մարդ վարորդներն են, որ կարծես թե իրենց աչքը ճանապարհին չեն պահում: Մենք կարող ենք հակված լինել կուլ տալու այս բծախնդիրը և հավատալ, որ բոլոր ճշգրիտ AI-ն, ամենայն հավանականությամբ, երբեք չի սխալվում: Մենք կարող ենք հակված լինել հավատալու (քանի որ մենք գիտենք փորձով), որ մարդ վարորդներն անփույթ են և թույլ են տալիս տոննա վարորդական սխալներ: Տրամաբանական եզրակացությունն այն է, որ մարդ վարորդները պետք է լինեն մեղավորը, իսկ արհեստական ​​ինտելեկտի վարման համակարգը բացարձակապես անմեղ է:

Մինչ ինքնակառավարման որոշ պաշտպաններ կվրդովվեն այս բնութագրումից, եկեք միանգամայն ընդունենք, որ մարդ վարորդը կարող է մեղավոր լինել, և որ նրանք պետք է ավելի շուտ քայլեր ձեռնարկեին, ինչպես օրինակ՝ AI-ից կառավարելու կառավարումը վերցնելը: Հնարավորություն կա նաև, որ մարդ վարորդը կարող էր ինչ-որ էական բան անել, երբ AI-ն հանձնեց վարելու կառավարումը: և այլն:

Այստեղ շեշտը դրվել է այն հանգամանքների վրա, երբ արհեստական ​​ինտելեկտը համարվում էր մեքենայի վարորդ, այնուհետև հանկարծակի և քիչ ուշադրություն դարձնելով այն բանին, թե ինչ կարող է անել մարդ վարորդը, տաք կարտոֆիլը նետում է մարդու վարորդին: Սա է նաև պատճառը, որ շատերին անհանգստացնում է կիսաինքնավար մեքենաների երկակի շարժիչ դերը: Կարող եք ասել, որ ղեկին չափազանց շատ վարորդներ կան։ Թվում է, թե նպատակը կլինի լուծել խնդիրը՝ ունենալով լիովին ինքնավար մեքենաներ, որոնք ղեկին մարդու կարիք չունեն, և AI-ն միշտ վարում է մեքենան:

Սա առաջացնում է դաշնակցային հարցը այն մասին, թե ինչ կամ ով է պատասխանատու, երբ արհեստական ​​ինտելեկտը վարում է, որին ես բազմիցս անդրադարձել եմ իմ սյունակներում, ինչպիսիք են. հղումն այստեղ և հղումն այստեղ.

Եզրափակում

Մենք պետք է զգույշ լինենք, երբ լսում կամ կարդում ենք կիսաինքնավար մեքենաների հետ կապված ավտովթարների մասին: Զգույշ եղեք նրանցից, ովքեր փորձում են խաբել մեզ՝ հայտարարելով, որ իրենց AI վարորդական համակարգը անբասիր ռեկորդ ունի: The conniving հնարք է AI Hot Potato Syndrome կարող է լինել խառնուրդի մեջ:

Այն ընկերությունների համար, որոնք փորձում են այս հարցերում խաբուսիկ լինել, գուցե մենք կարողանանք մեր սրտին մոտ պահել Աբրահամ Լինքոլնի հայտնի տողը. ամբողջ ժողովուրդը ամբողջ ժամանակ»։

Ես փորձել եմ այստեղ բացահայտել AI մոգությունը, որը թաքնված է էկրանի հետևում և երբեմն տեղադրված է գլխարկի տակ, ինչը ես պարզաբանել եմ, որպեսզի ավելի շատ մարդիկ չի ավելի շատ խաբվել:

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-employed-by-ai-makers- կարծես-փորձում-խուսափել-իրենց-կյանքի-պատասխանատվությունից-որոշել-ինքնավար-համակարգեր/