Արհեստական ​​ինտելեկտի էթիկա Զգուշորեն գնահատելով՝ խելամիտ է, թե անիմաստ, որսորդական պարգևներ՝ էթիկապես չար լիովին ինքնավար համակարգերի առաջարկը

SE busca: AI-ի կողմնակալ որսորդներ.

Դա կարող է լինել ժամանակակից գովազդ, որը դուք կսկսեք տեսնել, թե ինչպես է հայտնվում սոցիալական մեդիայի ալիքներում և հայտնվում տարբեր առցանց աշխատանքի հայտարարություններում: Սա համեմատաբար նոր հասկացություն կամ դեր է: Այն իր հետ հակասություններ է կրում: Որոշ ջերմեռանդ հավատացյալներ ջերմեռանդորեն պնդում են, որ դա շատ իմաստալից է և պետք է տեղի ունենար ամբողջ ընթացքում, մինչդեռ մյուսները բավականին նյարդայնացած լուրջ գլուխ են կոտրում և այնքան էլ վստահ չեն, որ սա լավ գաղափար է:

Դերի էությունը բաղկացած է AI-ից ցանկացած թաքնված կողմնակալության կամ ներկառուցված խտրական պրակտիկայի դուրսբերումից: Օգնության են գալիս եռանդուն և բոլորովին նախկինում AI-ի կողմնակալ որսորդները: Ենթադրաբար, նրանք համակարգչով տիրապետող պարգևների որսորդներ կլինեն: Ավելին, հուսով ենք, որ ներծծված AI կարողությունների խորքերում:

Ունեցեք հրացան, կճանապարհորդեք և կարող եք AI-ի հմուտ խելացի դիպուկ դիպուկ հարվածի միջոցով բացահայտել այդ անճոռնի և տհաճ AI-ի կողմնակալությունները:

Սա մի շարք փշոտ հարցեր է առաջացնում նման մարտավարության կիրառման զգայունության վերաբերյալ, երբ խոսքը վերաբերում է AI-ի կողմնակալության հայտնաբերմանը: Քանի որ ես մի պահ կքննարկեմ, խնդրում եմ իմացեք, որ AI-ի գալուստը իր հետ բերել է նաև AI-ի կողմնակալության ի հայտ գալը: AI-ի կողմնակալության տարափ: AI-ի էթիկայի և էթիկական AI-ի իմ շարունակական և ընդարձակ լուսաբանման համար տե՛ս հղումն այստեղ և հղումն այստեղ, պարզապես մի քանի անուն:

Ինչպե՞ս պարզել, որ որոշակի AI համակարգ ունի կողմնակալություն:

Դուք կարող եք վստահել արհեստական ​​ինտելեկտի մշակողներին, որոնք ստեղծել են AI-ն դա անել: Բանն այն է, որ նրանք կարող են այնքան խրված լինել կողմնակալության մեջ, որ իրենք չեն կարող ճանաչել կողմնակալությունները իրենց հորինված AI-ի ներսում: Նրանց համար ամեն ինչ լավ է թվում: Կամ նրանք կարող են այնքան ոգևորված լինել արհեստական ​​ինտելեկտով և ունենալ հպարտության զգացում դրա վերաբերյալ, որ այնուհետև քննադատական ​​աչք ընդունելը՝ այն կողմնակալության համար ուսումնասիրելու համար դժվար կլինի և իսկական անկում: Նման շատ այլ պատճառներ կարող են թվալ, որ թերանում են, երբ AI ծրագրավորողները ստանձնեն այս խնդիրը, ներառյալ ներկառուցված կողմնակալությունները պարզելու հմտությունների բացակայությունը, դրա համար նախագծում ժամանակի բացակայությունը և այլն:

Լավ, այնպես որ առաջ գնացեք և վարձեք դրսից խորհրդատուների, որոնք կեղտոտ գործն անեն ձեզ համար, ասես: Պարզվում է, որ խորհրդատուները հաճույքով կուսումնասիրեն ձեր AI-ն՝ կողմնակալության համար՝ ձեզանից բավական կոպեկ գանձելով դրա համար (շատ ու շատ կոպեկներ): Գիտակցեք, որ դուք պետք է վճարեք նրանց համար, որպեսզի արագացնեք ձեր AI համակարգը: Այնուհետև դուք պետք է նրանց ստիպեք շրջել շուրջը, ինչը կարող է տևել անասելի քանակությամբ ծախսատար ժամեր: Խորհրդատուների օգտագործումը տարբերակ է, եթե դրա համար բյուջե ունեք:

Արհեստական ​​ինտելեկտի այդ նենգ կողմնակալությունները գտնելու պոտենցիալ «բացի» մեջ մտնում են AI-ի հերոսական և սրընթաց կողմնակալության պարգև որսորդները:

Սովորաբար դուք չեք վճարում դրանք նախապես: Նրանք փորձում են իրենց ժամանակին գտնել արհեստական ​​ինտելեկտի կողմնակալությունը և ստիպված են լինում վճարել իրենց հաշիվները, երբ դա անում են: Միայն եթե նրանք հաջողությամբ գտնեն կողմնակալություններ, նրանք վարձատրվում են: Ենթադրում եմ, որ դուք կարող եք հեշտությամբ պնդել, որ հարմար մտածելակերպով դա առատաձեռն որսորդի ավանդական սահմանումն է: Վճարեք, եթե հաջողվի: Մի վարձատրվեք, եթե հաջողակ չեք: Ժամանակաշրջան, պատմվածքի ավարտ:

Բաունթի ծրագրերը գոյություն են ունեցել առնվազն հռոմեացիների ժամանակներից, և, հետևաբար, մենք կարող ենք ենթադրել, որ դրանք գործում են՝ հաջողությամբ դիմանալով որպես պրակտիկա այս բոլոր տարիների ընթացքում:

Ահա ձեզ համար մի հետաքրքրաշարժ պատմական մանրուք: Հաղորդվում է, որ Հռոմեական կայսրության ժամանակ Պոմպեյ քաղաքում տեղադրված հաղորդագրությունում ասվում էր, որ պարգևների որսորդներ են անհրաժեշտ փոքրիկ խանութից անհետացած պղնձե կաթսա գտնելու համար: Պղնձե կաթսայի վերականգնման համար վարձատրությունը տպավորիչ մրցանակ էր՝ վաթսունհինգ բրոնզե մետաղադրամ: Կներեք, որ մենք չգիտենք, թե արդյոք որևէ պարգև որսորդ գտել է պղնձե կաթսան և պահանջել բրոնզե մետաղադրամները, բայց մենք գիտենք, որ առատաձեռն որսը, անշուշտ, շարունակվել է այդ հին ժամանակներից:

Ավելի ժամանակակից ժամանակներում դուք կարող եք տեղյակ լինել, որ 1980-ականներին կային որոշ նշանակալից պարգևներ, որոնք առաջարկվում էին գտնել համակարգչային վրիպակներ կամ սխալներ ծրագրային փաթեթներում, իսկ հետո 1990-ականներին Netscape-ը նկատելիորեն առաջարկեց պարգևներ իրենց վեբ բրաուզերում սխալներ գտնելու համար: (դառնալով այդ օրվա ամենահայտնի ընկերություններից մեկը, որը դա անում է): Google-ը և Facebook-ը ընտրել էին 2010 և 2013 թվականներին համապատասխանաբար 2016 և XNUMX թվականներից սկսած սխալների համար պարգևների որսը: Մի քանի տարի անց, XNUMX-ին, նույնիսկ ԱՄՆ պաշտպանության նախարարությունը (DoD) ձեռնամուխ եղավ «Hack the Pentagon» պարգևատրման ջանքերին (նկատի ունեցեք, որ հրապարակայնորեն կենտրոնացված պարգևը նախատեսված էր DoD-ի հետ կապված տարբեր կայքերում հայտնաբերված սխալների համար և ոչ պաշտպանական առաքելության կարևոր համակարգեր):

Եկեք ավելի խորը խորանանք bug bounty թեմայի մեջ: Ես գիտակցում եմ, որ այս քննարկման մեջ հիմնականում նպատակ ունեմ խոսել AI-ի կողմնակալության մասին պարգևների որսի մեջ, բայց կան որոշ բավականին համապատասխան զուգահեռներ bug bounty ասպարեզում:

Ոմանք ակնհայտորեն տարակուսում են, որ ցանկացած ընկերություն կցանկանար պարգևատրել իրենց համակարգերում սխալներ (կամ, այս դեպքում, AI-ի կողմնակալություններ) գտնելու համար:

Արտաքնապես սա կարծես թե «դուք դա եք խնդրում» ռազմավարություն է: Եթե ​​դուք աշխարհին տեղեկացնեք, որ ողջունում եք նրանց, ովքեր կարող են փորձել ձեր ծրագրաշարում անցքեր գտնել, դա հավասարազոր է կողոպտիչներին ասելուն, որ գնան և փորձեն ներխուժել ձեր տուն: Նույնիսկ եթե դուք արդեն հավատում եք, որ ունեք բավականին լավ կողոպուտի ազդանշանային համակարգ, և որ ոչ ոք չպետք է կարողանա մտնել ձեր ապահով տուն, պատկերացրեք, թե ինչպես եք խնդրում և աղաչում գողերին, որ բոլորը իջնեն ձեր բնակության վայր և տեսնեն, թե արդյոք նրանք կարող են: ճեղքել դրա մեջ: Ա՜խ, այն նեղությունները, որ մենք հյուսում ենք մեզ համար։

Նույնը կարելի է ասել պարգևների որսորդներին խնդրելու մասին, որպեսզի ձեր AI-ում կողմնակալություն գտնեն:

Նախ, դա, հավանաբար, ենթադրում է, որ դուք արդեն հավատում եք կամ նույնիսկ ուղղակիորեն գիտեք, որ ձեր AI-ն ունի կողմնակալություն: Սա ցնցող անկեղծ ենթադրյալ խոստովանություն է, որը քչերը կթվա, որ պատրաստ են անել և կարող են հակառակ արդյունք տալ:

Երկրորդ, դուք հաստատ չգիտեք, թե ինչ կարող են անել այդ պարգև որսորդները: Նրանք կարող են որոշել ողջ աշխարհին ասել, որ ձեր AI-ի մեջ կողմնակալություն են գտել: Կարելի է ենթադրել, որ դա կարող է զրկվել պարգևից, թեև ոմանք կարող են վայելել ուշադրությունը կամ նպատակ ունենալ ամրապնդել իրենց կարգավիճակը՝ խորհրդատվական համերգներ և եկամուտներ ստեղծելու այլ հնարավորություններ ստանալու համար: Դա կարող է լինել միանգամայն ալտրուիստական: Դա կարող է լինել AI ակտիվիզմի ձև: Ես կարող եմ շարունակել:

Երրորդ, կարող է լինել նենգ շրջադարձ ամբողջ գործի մեջ: Առատաձեռն որսորդը, ով պնդում է, որ փնտրում է AI-ի կողմնակալություն, կարող է սատանայորեն շրջվել՝ ձեր AI համակարգի վրա հարձակվելու ուղիներ գտնելու համար: Ամբողջ բանը դաժան կիբերհարձակում իրականացնելու շառավիղ է: Դուք կարող եք ենթադրել, որ նրանք փորձում էին օգնել, մինչդեռ նրանք իրենց սրտում սխալ արարք ունեն: Տխուր, բայց հնարավոր.

Չորրորդ, մենք կարող ենք ավելի խորամանկորեն շեղվել այս հարցում: Բարեգործական որսորդը գտնում է որոշ ամոթալի և պոտենցիալ դատական ​​գործընթացներ խթանող AI-ի կողմնակալություններ: Բաունտը դոլարի որոշակի քանակություն է, որը մենք կանվանենք X: Բաունտի պահանջելու փոխարեն, պարգևների որսորդը մի տեսակ տարօրինակ փրկագին սադրանք է անում: Եթե ​​դուք վճարում եք պարգևների որսորդին տասնապատիկ X կամ գուցե երկնքի սահմանաչափի չափը, նա ձեզ կպատմի AI-ի կողմնակալության մասին: Պատասխանելու համար ժամանակ ունեք մինչև կիրակի գիշեր՝ կեսգիշեր։ Ժամանակի այդ պահից հետո AI-ի կողմնակալությունները կբացահայտվեն բոլորի համար: Այո, ահավոր անախորժ իրավիճակ է:

Հինգերորդը, ամենավերջինն այն, այսպես կոչված, «հաքը վերադարձնելու համար» կիբերկեղծարարներն են, որոնք առցանց խմորի մի փունջ գողանալուց հետո նրանք որոշում են ապաշխարել և վերադարձնել ապօրինի ձեռք բերած ավարի մի մասը, որը խլել են: Ընկերությունը, որ ստանում է իր գումարները մասամբ վերադարձված, այնուհետև պատրաստ է մնացած գողացված գումարը դիտարկել որպես գողերի համար պարգևատրվող փաստացի պարգևատրում: Թվում է, թե բոլորը «հաղթում են», քանի որ միջոցների մեծ մասը հետ է տրվում, և միևնույն ժամանակ կիբերկեղծարարները օրինականորեն չեն հետապնդվում, գումարած՝ նրանք ստանում են ծովահենների պարգևը: Սա խոհեմությո՞ւն է, թե՞ նենգորեն հավերժացնող անօրինական գործողություններ:

Ես հասկանում եմ, որ ձեզանից ոմանք կարող են ասել, որ ոչ ոք չպետք է թողարկի AI, որն իր մեջ որևէ կողմնակալություն ունի: Թվում է, թե դա կլուծի այս ամբողջ երկընտրանքը՝ օգտվել AI-ի կողմնակալության պարգևների որսորդներից, թե ոչ: Պարզապես ձեզ մի հայտնեք առատաձեռն իրավիճակի մեջ: Համոզվեք, որ ձեր AI մշակողները անում են ճիշտ բան և թույլ չեն տալիս AI-ի կողմնակալություն իրենց AI համակարգերում: Միգուցե օգտագործեք խորհրդատուներ կրկնակի ստուգում կատարելու համար: Ըստ էության, արեք այն, ինչ ձեզ հարկավոր է, որպեսզի երբեք չմտածեք կամ չխնդրեք այդ AI-ի կողմնակալ պարգևների որսորդներին գալ սեղանի շուրջ:

Այո, դա լիովին խելամիտ կթվա: Խնդիրն այն է, որ դա էլ է մի քիչ երազկոտ։ Արհեստական ​​ինտելեկտի բազմաթիվ համակարգերի բարդությունն այնքան մեծ է, որ համոզվելու համար, որ ոչ մի ունցիա արհեստական ​​ինտելեկտի շեղումներ չեն առաջանա, դժվար կլինի անել: Ի լրումն դրա, որոշ AI համակարգեր միտումնավոր ստեղծվել են հարմարվելու և «սովորելու» համար, երբ դրանք ընթանում են: Սա նշանակում է, որ ապագայում ձեր ստեղծած արհեստական ​​ինտելեկտը, որը եկեք սկզբում ձևացնենք, որ զուտ մաքուր է և առանց կողմնակալության, կարող է ձգվել դեպի կողմնակալություն մարմնավորելու (ես դա նկատի չունեմ մարդաբանական ձևով, ինչպես կբացատրեմ ավելին, երբ մենք շարունակեք այս թեմայի շուրջ):

Նրանք, ովքեր կողմ են ծրագրային ապահովման սխալների համար պարգևների որսին, հակված են պնդելու, որ իմաստ ունի առաջարկել այդպիսի պարգևներ: Մենք կարող ենք հաշվի առնել դրանց հիմնավորումը և տեսնել, թե արդյոք դա վերաբերում է նաև AI-ի կողմնակալության ոլորտին:

Սխալների պարգևների կողմնակիցներն ընդգծում են, որ ոչ թե փորձելու ձևացնել, թե ձեր համակարգում անցքեր չկան, ինչո՞ւ չխրախուսել գտնել անցքեր՝ դա անելով «վերահսկվող» ձևով: Ի հակադրություն, առանց նման առատաձեռն ջանքերի, դուք կարող եք պարզապես հուսալ և աղոթել, որ պատահական պատահականությամբ ոչ ոք անցք չգտնի, բայց եթե փոխարենը դուք պարգև եք առաջարկում և ասում եք նրանց, ովքեր անցք են գտնում, որ նրանք կպարգևատրվեն, դա առաջարկում է. հնարավորություն է այնուհետև ինքնուրույն ընդլայնել անցքը, իսկ հետո թույլ չի տալիս ուրիշներին գաղտնի գտնել այն ժամանակի ինչ-որ ավելի ուշ պահին:

Նույնը կարելի է ասել AI-ի կողմնակալության օգտագործման դեպքում: Եթե ​​դուք բավարար պարգև առաջարկեք, հուսով ենք, որ պարգևների որսորդները ձեր ուշադրությանը կներկայացնեն AI-ի կողմնակալության բացահայտումը: Այնուհետև դուք կարող եք հաղթահարել AI-ի կողմնակալությունները համեմատաբար հանգիստ և չափված ձևով: Սա կարող է հետագայում կանխել շատ ավելի մեծ և սարսափելի խնդիր, այն է, որ ինչ-որ մեկը գտնում է AI-ի կողմնակալությունը ձեր AI-ում և դրա մասին բղավում է դեպի բարձր երկինք:

Ընդհանրապես, ընկերությունը, որը ցանկանում է թույլ տալ վրիպակների պարգևների որսորդական ջանքերը, կկիրառի խոցելիության բացահայտման քաղաքականություն (VDP): VDP-ն ցույց է տալիս, թե ինչպես պետք է հայտնաբերվեն վրիպակները և զեկուցվեն ընկերությանը, ինչպես նաև պարգևը կամ պարգևը որսորդին կտրամադրվի: Սովորաբար, VDP-ն պահանջում է, որ որսորդը ստորագրի չբացահայտման համաձայնագիր (NDA) այնպես, որ նրանք չբացահայտեն ուրիշներին, թե ինչ են գտել:

Բունտի որսորդների հետ NDA օգտագործելու գաղափարը որոշակի հակասություններ ունի: Թեև, թերևս, իմաստ ունի, որ ընկերությունը առաջարկում է պարգևը, որ ցանկանում է մայրիկին պահել հայտնաբերված բացահայտումները, ասվում է, որ դա նաև խեղդում է նման սխալների մասին ընդհանուր իրազեկությունը: Ենթադրաբար, եթե թույլատրվի խոսել ծրագրային ապահովման սխալների մասին, դա պոտենցիալ կնպաստի այլ ընկերությունների այլ համակարգերի անվտանգությանը, որոնք այնուհետև կամրապնդեն իրենց բացահայտումները: Որոշ պարգևների որսորդներ չեն ստորագրի NDA-ն՝ մասամբ հանրային ցանկության և մասամբ սեփական ինքնությունը թաքցնելու փորձի պատճառով: Նկատի ունեցեք նաև, որ NDA ասպեկտը սովորաբար առաջանում է միայն այն բանից հետո, երբ որսորդը պնդում է, որ իրենք հայտնաբերել են սխալ, այլ ոչ թե նախօրոք դա պահանջում:

Որոշ VDP-ներ սահմանում են, որ NDA-ն նախատեսված է միայն սահմանափակ ժամանակաշրջանի համար, ինչը թույլ է տալիս ընկերությանը նախ լուծում գտնել ակնհայտ անցքի համար, այնուհետև թույլ տալ ավելի լայն բացահայտում դրա մասին: Հենց որ անցքը խցանված է, ընկերությունը թույլ է տալիս թուլացնել NDA-ն, որպեսզի մնացած աշխարհը կարողանա իմանալ վրիպակի մասին: Հաղորդվում է, որ առատաձեռն որսված վրիպակների համար լուծվելու բնորոշ ժամանակը մոտ 15-20 օր է, երբ ընկերությունը ցանկանում է անմիջապես միացնել այն, մինչդեռ այլ դեպքերում այն ​​կարող է ձգվել մինչև 60-80 օր: Ինչ վերաբերում է պարգևների որսորդին վճարելու, այսպես կոչված, վճարման ժամանակին, այն բանից հետո, երբ անցքը փաստացի առկա է, պարգևավճարները, ըստ տեղեկությունների, սովորաբար կազմում են մոտ 15-20 օրվա ընթացքում ավելի փոքր դեպքերի համար և մոտ 50-60: օրեր ավելի մեծ դեպքերի համար (դրանք անընդհատ փոփոխվում են ոլորտի ցուցումները և նշվում են միայն որպես պատկերազարդ):

Արդյո՞ք AI-ն կողմնակալ է պարգևների որսորդներին՝ խնդրելով մասնակցել VDP-ին և գործ ունենալ NDA-ի հետ:

Դուք կարող եք ստանալ այո և ոչ այդ հարցին: Այո, որոշ ընկերություններ պետք է գնան այդ ճանապարհով: Ոչ, դուք կարող եք անպայմանորեն չընտրել այդ ճանապարհը: Գործոնները ներառում են AI-ի չափն ու բնույթը, AI-ի ցանկացած կողմնակալության բացահայտման ներուժը և մի շարք այլ էթիկական, իրավական և բիզնես նկատառումներ, որոնք պետք է իրականացվեն:

Ես կարող եմ ավելացնել, որ ձեր AI-ի AI-ի կողմնակալության համար պարգևների որսորդական նախաձեռնություն հաստատելը շատ ավելի բարձր կարգ է, քան դուք կարող եք ենթադրել նախնական հայացքից:

Մենք կսկսենք ահռելի հավանականությունից, որ դուք ճնշված կլինեք AI-ի կողմնակալության պարգևների որսորդների կողմից:

Հենց հիմա ձեզ դժվար կլինի գտնել շատերին, որոնք կունենան նման այցեքարտ: Շուրջը շատերը չկան: Այդ առումով Վայրի Արեւմուտքի օրերն են։ Բայց եթե առատաձեռն որսում AI-ի կողմնակալության գաղափարը տարածվում է, հատկապես, երբ պարգևները առատ են և առատորեն հատուցող, կարող եք գրազ գալ, որ բոլորը կսուզվեն կանխակալ որսորդական լողավազան:

Ցանկանու՞մ եք, որ ձեր AI համակարգում AI-ի կողմնակալություն հետապնդող բոլոր տեսակի ռիֆրաֆներ: Դուք կստանաք որոշ վերցնողներ, որոնք իրականում փորձագետներ են այս տեսակի բաներում: Դուք կստանաք այլ խաղացողներ, որոնք սիրողական են և կարող են խառնաշփոթ սարքել կամ լաց լինել: Հաջորդ բանը, որ դուք գիտեք, յուրաքանչյուր ոք, ով կարող է գրել «Արհեստական ​​ինտելեկտ», կգա ձեր ոսկու հանքը փորելու արհեստական ​​ինտելեկտի համակարգի այդ թանկարժեք արհեստական ​​ինտելեկտի կողմնակալության ոսկու կտորները: Ոսկու տենդը շարունակվում է: Դա կարող է լավ չլինել ձեզ համար:

Դուք պետք է մանրակրկիտ ուսումնասիրեք պարգևների որսորդների ներկայացումները: Հաղորդված պնդումներում շատ «աղմուկ» կլինի, այն իմաստով, որ AI-ի հայտարկված կողմնակալություններից շատերը գոյություն չունեն, թեև պարգևների որսորդը պնդում է, որ նրանք գտել են մի քանիսը: Պատկերացրեք, թե որքան աշխատանք կպահանջվի ձեր սեփական AI թիմերից՝ ուսումնասիրելու պարգևների պահանջները, ուսումնասիրելու յուրաքանչյուրի վավերականությունը և այնուհետև, հնարավոր է, հետ ու առաջ գնան պարգևների որսորդի հետ՝ ոսկի հայտնաբերված, թե ոչ:

Ոմանք կպնդեն, որ դա ևս մեկ պատճառ է ամբողջ գործն ինքներդ անելու համար: Դուք կարող եք անխուսափելիորեն պարզել, որ առատաձեռն բանն ավելի մեծ դժվարություն է, քան արժեր:

Ահա ևս մեկ հարց՝ խորհելու համար. Ինչպե՞ս կարող են պարգևների որսորդները իմանալ, թե ինչ տեսք ունի AI-ի կողմնակալությունը: Ըստ էության, առանց ինչ-որ տեսքի, թե ինչ պետք է փնտրել, ցանկացած փայլուն ժայռ կարելի է պնդել, որ ցուցադրում է AI-ի կողմնակալություն պեղվող AI ոսկու հանքում:

Հին Արևմուտքի օրերին, ենթադրենք, որ դուք վարձատրություն եք առաջարկել Բիլլի Քիդին (հայտնի ապօրինի) բռնելու համար: Եթե ​​դուք այդպես եք վարվել և չեք ներառել Բիլլիի արտաքին տեսքի նկարը, պատկերացրեք պարգևների որսորդների թիվը, որոնք կարող են շերիֆի գրասենյակ քաշել մեկին, ում հույս ուներ կամ կարծում էին, որ Բիլլի Քիդն է: Դուք կարող եք հեղեղվել կեղծ Բիլլիով: Սա վատ է, քանի որ ենթադրաբար պետք է նայեք յուրաքանչյուրին, հարցաքննիչ հարցեր տաք և փորձեք պարզել՝ այդ անձն իսկապես Բիլլին էր, թե ոչ:

Բանն այն է, որ AI-ի կողմնակալության պարգևավճարը ստեղծելու համար խելամիտ կլինի փորձել և պարզաբանել, թե ինչից են բաղկացած AI-ի կողմնակալությունները: Սա պահանջում է Goldilocks տեսակի չափաբերում: Դուք չեք ցանկանում այնքան սահմանափակվել, որ պարգևների որսորդները անտեսեն արհեստական ​​ինտելեկտի կողմնակալությունը միայն այն պատճառով, որ դրանք չեն համապատասխանում ձեր սահմանված սահմանմանը, և ոչ էլ ցանկանում եք, որ նրանք գոռան «Էվրիկա»: ամեն մի պատառ AI-ի կողմնակալության, որ նրանք, հավանաբար, գտնում են:

Ձեզ անհրաժեշտ կլինի ճիշտ Goldilocks հաշվեկշիռը, թե ինչից են բաղկացած AI-ի կողմնակալությունը և, հետևաբար, տրամադրեք դրանց նախընտրելի հստակ ուղղությունները:

Այս AI-ի կողմնակալության պարգևների որսը կկենտրոնանա AI-ի վրա հիմնված Machine Learning (ML) և Deep Learning (DL) համակարգերի վրա: Սա իմաստ ունի, քանի որ ML/DL համատարածության գալուստը աճում է, գումարած, թվում է, որ այն ունի AI-ի անհարկի կողմնակալության ընդգրկման ամենահավանական մարտահրավերներից մի քանիսը:

Այս հետազոտողները պարզում են, թե որքան ակնառու կարող է լինել AI-ի կողմնակալությունը պարգևների որսի ջանքերը, հատկապես ML/DL համատեքստում. «Ժամանակի ընթացքում ծրագրային ապահովման և անվտանգության համայնքները մշակել են «bug bounties»՝ փորձելով նման դինամիկան վերածել համակարգի մշակողների և նրանց քննադատների միջև: (կամ հաքերները) դեպի ավելի ինտերակտիվ և արդյունավետ նպատակներ: Հույս կա, որ արտաքին կողմերին դիտավորյալ հրավիրելով՝ գտնելու ծրագրային ապահովման կամ ապարատային սխալներ իրենց համակարգերում, և հաճախ դրամական խթաններ տրամադրելով դրա համար, կզարգանա ավելի առողջ և արագ արձագանքող էկոհամակարգ: Բնական է, որ ՓԼ համայնքը դիտարկի նմանատիպ «կողմնակալության պարգևի» մոտեցումը կողմնակալության կամ այլ անցանկալի վարքագծով մոդելների և համակարգերի ժամանակին հայտնաբերման և վերանորոգման համար: Ծրագրային ապահովման մեջ սխալներ գտնելու փոխարեն, արտաքին կողմերը հրավիրվում են գտնել կողմնակալություններ, օրինակ՝ (ժողովրդագրական կամ այլ) ենթախմբեր, որոնցում պատրաստված մոդելը թերակատարում է, և պարգևատրվում են դրա համար» («Ալգորիթմական շրջանակը կողմնակալության համար» հոդվածում: Բաունթիներ» Իռա Գլոբուս-Հարիսի, Մայքլ Քիրնսի և Ահարոն Ռոթի կողմից):

Հետազոտական ​​հոդվածում հեղինակները ուրվագծում են առաջարկվող մոտեցումը, թե ինչպիսի AI-ի կողմնակալություն կարող են փնտրել պարգևների որսորդները: Կա նաև ցուցում այն ​​մասին, թե ինչպես կարելի է գնահատել պարգևների որսորդի պահանջները, որոնք կապված են ենթադրյալ AI-ի կողմից հայտնաբերված կողմնակալության հետ: Ինչ վերաբերում է իմ նախորդ դիտողություններին այստեղ, հավանականությունն այն է, որ դուք կստանաք տարօրինակ պահանջներ և ստիպված կլինեք առանձնացնել AI-ի կողմնակալության ցորենը ցորենից:

Նախքան AI-ի կողմնակալության որսի հիմքում ընկած վայրի և բրդյա նկատառումների մասին ավելի շատ մսի և կարտոֆիլի մասին խոսելը, եկեք որոշ լրացուցիչ հիմունքներ հիմնենք խորապես անբաժանելի թեմաների վերաբերյալ: Մենք պետք է հակիրճ ուսումնասիրենք AI-ի էթիկա և հատկապես Մեքենայական ուսուցման (ML) և Deep Learning (DL) ի հայտ գալը:

Դուք կարող եք անորոշ տեղյակ լինել, որ այս օրերի ամենաբարձր ձայներից մեկը AI ոլորտում և նույնիսկ արհեստական ​​ինտելեկտի դաշտից դուրս բաղկացած է էթիկական արհեստական ​​ինտելեկտի ավելի մեծ երևույթի մասին աղաղակելուց: Եկեք նայենք, թե ինչ է նշանակում հղում կատարել AI-ի էթիկային և էթիկական AI-ին: Բացի այդ, մենք կուսումնասիրենք, թե ինչ նկատի ունեմ, երբ խոսում եմ մեքենայական ուսուցման և խորը ուսուցման մասին:

Արհեստական ​​ինտելեկտի էթիկայի որոշակի հատված կամ մի հատված, որը արժանացել է ԶԼՄ-ների մեծ ուշադրությանը, բաղկացած է AI-ից, որը ցուցադրում է անբարենպաստ կողմնակալություններ և անհավասարություններ: Դուք կարող եք տեղյակ լինել, որ երբ սկսվեց AI-ի վերջին դարաշրջանը, խանդավառության մեծ պոռթկում էր այն, ինչ այժմ ոմանք անվանում են: AI For Good. Ցավոք սրտի, այդ բուռն հուզմունքից հետո մենք սկսեցինք ականատես լինել AI For Bad. Օրինակ, AI-ի վրա հիմնված դեմքի ճանաչման տարբեր համակարգեր բացահայտվել են որպես ռասայական և գենդերային կողմնակալություններ պարունակող, որոնք ես քննարկել եմ հղումն այստեղ.

Դեմ պայքարելու ջանքերը AI For Bad ակտիվորեն ընթանում են։ Բացի աղմկոտ իրավական Սխալ արարքները զսպելու ձգտումները, կա նաև զգալի մղում դեպի AI էթիկան ընդունելու՝ AI-ի ստորությունը շտկելու համար: Հասկացությունը կայանում է նրանում, որ մենք պետք է ընդունենք և հաստատենք Արհեստական ​​ինտելեկտի էթիկական հիմնական սկզբունքները Արհեստական ​​ինտելեկտի զարգացման և ներդրման համար՝ դա անելով նվազեցնելու համար AI For Bad և միաժամանակ ազդարարելով և խթանելով նախընտրելիը AI For Good.

Համապատասխան հասկացության համաձայն՝ ես AI-ն օգտագործելու ջատագովն եմ՝ որպես արհեստական ​​ինտելեկտի դժբախտությունների լուծման մաս՝ կրակը կրակի հետ պայքարելով այդ մտածելակերպով: Օրինակ՝ մենք կարող ենք ներդնել Արհեստական ​​ինտելեկտի էթիկական բաղադրիչները արհեստական ​​ինտելեկտի համակարգում, որը կհետևի, թե ինչպես է AI-ի մնացած անդամներն անում բաներ և այդպիսով իրական ժամանակում պոտենցիալ կերպով կբռնեն ցանկացած խտրական ջանք, տես իմ քննարկումը. հղումն այստեղ. Մենք կարող ենք նաև ունենալ AI-ի առանձին համակարգ, որը հանդես է գալիս որպես AI Էթիկայի մոնիտոր: Արհեստական ​​ինտելեկտի համակարգը ծառայում է որպես վերահսկիչ՝ հետևելու և հայտնաբերելու, թե երբ է մեկ այլ AI գնում ոչ էթիկական անդունդ (տե՛ս նման հնարավորությունների իմ վերլուծությունը այստեղ՝ հղումն այստեղ).

Քիչ անց ես ձեզ հետ կկիսվեմ AI-ի էթիկայի հիմքում ընկած մի քանի հիմնական սկզբունքներով: Այս տեսակի ցուցակները շատ են լողում այս ու այն կողմ: Կարելի է ասել, որ դեռևս չկա համընդհանուր բողոքարկման և համաձայնության եզակի ցուցակ: Սա ցավալի լուր է: Լավ նորությունն այն է, որ գոնե կան AI-ի էթիկայի մատչելի ցուցակներ, և դրանք հակված են միանգամայն նման լինել: Ընդհանուր առմամբ, սա ենթադրում է, որ մի տեսակ հիմնավորված մերձեցման միջոցով մենք գտնում ենք մեր ճանապարհը դեպի ընդհանուր ընդհանրություն, թե ինչից է բաղկացած AI էթիկան:

Նախ, եկեք համառոտ անդրադառնանք էթիկական արհեստական ​​ինտելեկտի ընդհանուր կանոններից մի քանիսին, որպեսզի ցույց տանք, թե ինչ պետք է լինի կենսական նշանակություն ունեցող ցանկացած մարդու համար, ով արհեստագործում է, զբաղվում կամ օգտագործում է AI:

Օրինակ, ինչպես նշվում է Վատիկանի կողմից Հռոմը AI-ի էթիկայի կոչ է անում և քանի որ ես խորությամբ անդրադարձել եմ հղումն այստեղ, սրանք են նրանց բացահայտված AI-ի էթիկայի վեց հիմնական սկզբունքները.

  • Թափանցիկություն. Սկզբունքորեն, AI համակարգերը պետք է բացատրելի լինեն
  • Ներառումը. Պետք է հաշվի առնել բոլոր մարդկանց կարիքները, որպեսզի բոլորը կարողանան օգուտ քաղել, և բոլոր անհատներին առաջարկել լավագույն պայմաններն ինքնադրսևորվելու և զարգանալու համար։
  • Պատասխանատվություն ` Նրանք, ովքեր նախագծում և կիրառում են AI-ի օգտագործումը, պետք է գործեն պատասխանատվությամբ և թափանցիկությամբ
  • Անաչառություն. Մի ստեղծեք կամ մի գործեք ըստ կողմնակալության՝ դրանով իսկ պաշտպանելով արդարությունն ու մարդկային արժանապատվությունը
  • հուսալիություն: AI համակարգերը պետք է կարողանան հուսալիորեն աշխատել
  • Անվտանգություն և գաղտնիություն. AI համակարգերը պետք է ապահով աշխատեն և հարգեն օգտատերերի գաղտնիությունը:

Ինչպես նշված է ԱՄՆ պաշտպանության նախարարության (DoD) կողմից իրենց Արհեստական ​​ինտելեկտի օգտագործման էթիկական սկզբունքներ և քանի որ ես խորությամբ անդրադարձել եմ հղումն այստեղ, սրանք են AI-ի նրանց վեց հիմնական էթիկայի սկզբունքները.

  • Պատասխանատու: DoD անձնակազմը կկիրառի դատողության և խնամքի համապատասխան մակարդակներ՝ միաժամանակ պատասխանատու մնալով AI կարողությունների զարգացման, տեղակայման և օգտագործման համար:
  • Արդար: Դեպարտամենտը կանխամտածված քայլեր կձեռնարկի՝ նվազագույնի հասցնելու AI կարողությունների մեջ չնախատեսված կողմնակալությունը:
  • Հետագծելի: Դեպարտամենտի AI կարողությունները կզարգացվեն և կտեղակայվեն այնպես, որ համապատասխան անձնակազմը համապատասխան պատկերացում ունենա տեխնոլոգիայի, զարգացման գործընթացների և գործառնական մեթոդների մասին, որոնք կիրառելի են AI կարողությունների համար, ներառյալ թափանցիկ և աուդիտի ենթարկվող մեթոդաբանությունները, տվյալների աղբյուրները և նախագծման ընթացակարգն ու փաստաթղթերը:
  • Վստահելի: Դեպարտամենտի արհեստական ​​ինտելեկտի հնարավորությունները կունենան հստակ, հստակորեն սահմանված կիրառումներ, և նման հնարավորությունների անվտանգությունը, անվտանգությունը և արդյունավետությունը ենթակա կլինեն փորձարկման և հավաստիացման՝ սահմանված օգտագործման շրջանակում դրանց ողջ կյանքի ընթացքում:
  • Կառավարվող. Դեպարտամենտը նախագծելու և նախագծելու է AI-ի հնարավորությունները՝ իրականացնելու իրենց նախատեսված գործառույթները՝ միաժամանակ ունենալով անցանկալի հետևանքները հայտնաբերելու և խուսափելու, ինչպես նաև չնախատեսված վարք դրսևորող տեղակայված համակարգերը անջատելու կամ անջատելու կարողություն:

Ես նաև քննարկել եմ AI էթիկայի սկզբունքների տարբեր կոլեկտիվ վերլուծություններ, ներառյալ հետազոտողների կողմից մշակված մի շարք, որոնք ուսումնասիրել և խտացրել են բազմաթիվ ազգային և միջազգային AI էթիկայի դրույթների էությունը «Արհեստական ​​ինտելեկտի էթիկայի գլոբալ լանդշաֆտը» վերնագրով հոդվածում (հրատարակված): մեջ բնություն), և որ իմ լուսաբանումն ուսումնասիրում է հղումն այստեղ, որը հանգեցրեց այս հիմնական ցուցակին.

  • Թափանցիկություն
  • Արդարություն և արդարություն
  • Ոչ չարամտություն
  • պատասխանատվություն
  • Գաղտնիության
  • Բարեգործություն
  • Ազատություն և ինքնավարություն
  • Վստահեք
  • Կայունություն
  • Արժանապատվություն
  • Համերաշխություն

Ինչպես կարող եք ուղղակիորեն կռահել, այս սկզբունքների հիմքում ընկած առանձնահատկությունները պարզելու փորձը կարող է չափազանց դժվար լինել: Առավել եւս, որ այդ լայն սկզբունքները լիովին շոշափելի և բավականաչափ մանրամասն ինչ-որ բանի վերածելու ջանքերը, որոնք կարող են օգտագործվել արհեստական ​​ինտելեկտի համակարգեր ստեղծելու ժամանակ, նույնպես դժվար է կոտրել: Հեշտ է ընդհանուր առմամբ ձեռքով պարզել, թե ինչ են AI-ի էթիկայի կանոնները և ինչպես պետք է դրանք ընդհանուր առմամբ պահպանվեն, մինչդեռ AI կոդավորման մեջ շատ ավելի բարդ իրավիճակ է, որը պետք է լինի իրական ռետինը, որը համապատասխանում է ճանապարհին:

AI-ի էթիկայի սկզբունքները պետք է օգտագործվեն արհեստական ​​ինտելեկտի մշակողների կողմից, ինչպես նաև նրանք, ովքեր կառավարում են AI-ի զարգացման ջանքերը, և նույնիսկ նրանք, ովքեր, ի վերջո, կիրառում և պահպանում են AI համակարգերը: Բոլոր շահագրգիռ կողմերը AI-ի զարգացման և օգտագործման ողջ ցիկլի ընթացքում համարվում են Էթիկական AI-ի հաստատված նորմերին պահպանելու շրջանակում: Սա կարևոր կարևոր կետ է, քանի որ սովորական ենթադրությունն այն է, որ «միայն կոդավորողները» կամ նրանք, ովքեր ծրագրավորում են AI-ն, ենթակա են հավատարիմ մնալու AI-ի էթիկայի հասկացություններին: Ինչպես արդեն նշվեց, AI-ի մշակման և դաշտի մշակման համար անհրաժեշտ է գյուղ, և որի համար ամբողջ գյուղը պետք է տիրապետի և պահպանի AI-ի էթիկայի կանոնները:

Եկեք նաև համոզվենք, որ մենք նույն էջում ենք այսօրվա AI-ի բնույթի վերաբերյալ:

Այսօր չկա որևէ AI, որը զգայուն է: Մենք սա չունենք: Մենք չգիտենք, թե արդյոք հնարավո՞ր է խելացի AI-ն: Ոչ ոք չի կարող տեղին կանխագուշակել, թե արդյոք մենք կհասնենք խելամիտ AI-ին, և ոչ էլ արդյոք զգայական AI-ն ինչ-որ կերպ հրաշքով ինքնաբերաբար կառաջանա հաշվողական ճանաչողական գերնոր աստղի տեսքով (սովորաբար կոչվում է եզակիություն, տե՛ս իմ լուսաբանումը այստեղ. հղումն այստեղ).

AI-ի տեսակը, որի վրա ես կենտրոնանում եմ, բաղկացած է ոչ զգայուն AI-ից, որն այսօր ունենք: Եթե ​​ուզենայինք կատաղի ենթադրություններ անել զգայուն AI, այս քննարկումը կարող է գնալ արմատապես այլ ուղղությամբ: Զգացող AI-ն ենթադրաբար մարդկային որակի կլիներ: Պետք է հաշվի առնել, որ զգայուն AI-ն մարդու ճանաչողական համարժեքն է: Ավելին, քանի որ ոմանք ենթադրում են, որ մենք կարող ենք ունենալ սուպեր-խելացի AI, կարելի է պատկերացնել, որ այդպիսի AI-ն կարող է ավելի խելացի լինել, քան մարդիկ (սուպեր-խելացի AI-ի իմ հետազոտության համար, տես. լուսաբանումն այստեղ).

Եկեք ամեն ինչ ավելի պարզ պահենք և հաշվի առնենք այսօրվա հաշվողական ոչ զգայուն AI-ն:

Գիտակցեք, որ այսօրվա AI-ն ի վիճակի չէ «մտածել» մարդկային մտածողությանը հավասար: Երբ դուք շփվում եք Alexa-ի կամ Siri-ի հետ, խոսակցական կարողությունները կարող են նման լինել մարդկային կարողություններին, բայց իրականությունն այն է, որ այն հաշվողական է և չունի մարդկային ճանաչողություն: AI-ի վերջին դարաշրջանը լայնորեն օգտագործել է մեքենայական ուսուցում (ML) և Deep Learning (DL), որոնք օգտագործում են հաշվողական օրինաչափությունների համընկնումը: Սա հանգեցրել է արհեստական ​​ինտելեկտի համակարգերի, որոնք ունեն մարդու նման հակումների տեսք: Միևնույն ժամանակ, այսօր չկա որևէ արհեստական ​​բանականություն, որն ունի ողջամտության նմանություն և ոչ էլ ունի ուժեղ մարդկային մտածողության ճանաչողական հրաշք:

ML/DL-ը հաշվողական օրինաչափությունների համապատասխանության ձև է: Սովորական մոտեցումն այն է, որ դուք հավաքում եք տվյալներ որոշումներ կայացնելու առաջադրանքի վերաբերյալ: Դուք սնուցում եք տվյալները ML/DL համակարգչային մոդելների մեջ: Այդ մոդելները ձգտում են գտնել մաթեմատիկական օրինաչափություններ: Այդպիսի օրինաչափություններ գտնելուց հետո, եթե գտնվեն, ապա արհեստական ​​ինտելեկտի համակարգը կօգտագործի այդ օրինաչափությունները նոր տվյալների հանդիպելիս: Նոր տվյալների ներկայացումից հետո «հին» կամ պատմական տվյալների վրա հիմնված օրինաչափությունները կիրառվում են ընթացիկ որոշում կայացնելու համար:

Կարծում եմ, դուք կարող եք կռահել, թե ուր է սա գնում: Եթե ​​մարդիկ, ովքեր որոշումներ են կայացնում, իրենց մեջ ներդնում են անբարենպաստ կողմնակալություն, ապա հավանականությունն այն է, որ տվյալներն արտացոլում են դա նուրբ, բայց նշանակալի ձևերով: Մեքենայի ուսուցումը կամ խորը ուսուցման հաշվողական օրինաչափությունների համընկնումը պարզապես կփորձի համապատասխանաբար մաթեմատիկորեն նմանակել տվյալները: Առողջ դատողության կամ AI-ի կողմից ստեղծված մոդելավորման այլ զգալի ասպեկտներ ինքնին չկա:

Ավելին, AI մշակողները նույնպես կարող են չհասկանալ, թե ինչ է կատարվում: ML/DL-ի գաղտնի մաթեմատիկան կարող է դժվարացնել այժմ թաքնված կողմնակալությունների բացահայտումը: Դուք իրավամբ հույս կունենաք և ակնկալում եք, որ AI մշակողները կփորձարկեն պոտենցիալ թաղված կողմնակալության համար, թեև դա ավելի բարդ է, քան կարող է թվալ: Մեծ հավանականություն կա, որ նույնիսկ համեմատաբար լայնածավալ փորձարկումների դեպքում, ML/DL-ի օրինաչափությունների համապատասխանող մոդելներում դեռևս առկա կլինեն կողմնակալություններ:

Դուք կարող եք ինչ-որ չափով օգտագործել աղբի մեջ աղբի դուրս գալու հայտնի կամ տխրահռչակ ասացվածքը: Բանն այն է, որ սա ավելի շատ նման է կողմնակալություններին, որոնք նենգորեն ներարկվում են որպես AI-ի մեջ ընկղմված կողմնակալություններ: AI-ի որոշումների կայացման ալգորիթմը (ADM) աքսիոմատիկորեն ծանրաբեռնված է անհավասարություններով:

Ոչ լավ.

Հիմա վերադառնանք AI-ի կողմնակալ որսի թեմային:

Ձեզանից նրանց համար, ովքեր մտածում են AI-ի կողմնակալության պարգևների որսորդության մասին, ահա իմ առաջարկած յոթ հիմնական քայլերը, թե ինչպես լավագույնս շարունակել.

1) Գնահատել. Գնահատեք AI-ի կողմնակալության պարգևների որսի փորձի համապատասխանությունը ձեր հանգամանքներին և ըստ ձեր AI համակարգերի

2) Դիզայն. Նախագծեք AI-ի կողմնակալության պարգևների որսի համապատասխան մոտեցում

3) Իրականացնել. Իրականացրեք և հրապարակեք ձեր AI-ի կողմնակալության պարգևների որսի ջանքերը

4) Դաշտ. Կատարեք AI-ի կողմնակալության պարգևավճարի պահանջները և համապատասխանաբար մշակեք

5) ուղղել. Ուղղեք կամ կարգավորեք ձեր AI-ը, քանի որ այն համապատասխանում է հայտնաբերված AI-ի կողմնակալության ազդեցությանը

6) Հարմարեցնել. Կարգավորեք AI-ի կողմնակալության պարգևների որսը ըստ անհրաժեշտության

7) Դադարեցնել. Դադարեցրեք AI-ի կողմնակալության պարգևների որսը, երբ դրա կարիքն այլևս չկա

Իմ վերը նշված քայլերի շարքում նշեք, որ ես նշում եմ, որ դուք հավանաբար կցանկանաք շտկել կամ կարգավորել ձեր AI-ն՝ հիմնվելով այն փաստի վրա, որ հայտավորված AI-ի կողմնակալությունը իրականում գոյություն ունի ձեր AI համակարգում: Սա առատորեն իմաստ ունի: Դուք, անշուշտ, կցանկանայիք պաշտպանել AI-ի հայտնաբերված կողմնակալությունները: Մտածեք իրավական (և էթիկական) հետևանքների մասին, եթե դա չանեք: Մի բան է պնդել, որ դուք չգիտեիք, որ AI-ի կողմնակալություն գոյություն ուներ և, հետևաբար, թույլ տվեցիք, որ այն գոյություն ունենա, մինչդեռ շատ ավելի ցնցող հիմք է արձանագրել, որ դուք տեղյակ եք եղել AI-ի կողմնակալության մասին և ոչինչ չեք արել դրա դեմ:

Արհեստական ​​ինտելեկտի ուղղման կամ ճշգրտման բնույթն ու աստիճանը, անշուշտ, կախված են նրանից, թե որքան կարևոր են AI-ի կողմնակալությունները և որքան խորն են ներառված խնդիրները: Եթե ​​ձեր բախտը բերի, գուցե AI-ի համեստ փոփոխությունները կշտկեն խնդիրները: Մյուս պոտենցիալն այն է, որ ձեզ կարող է անհրաժեշտ լինել AI-ի ամբողջական վերաշարադրում: ML/DL տիպի AI-ի համար դա կարող է պահանջել վերադառնալ գծագրական տախտակ և նոր սկսել տվյալների բոլորովին նոր հավաքածուով և մաքրված ML/DL մոդելով: Ես քննարկել եմ արհեստական ​​ինտելեկտի ոչնչացման կամ ինտելեկտի ոչնչացման ի հայտ գալը՝ որպես անբարենպաստ AI-ի դեմ հնարավոր իրավական միջոց, տես. հղումն այստեղ.

Մի հարց, որը պետք է քննարկվի, այն է, թե արդյոք դուք կցանկանայիք, որ պարգևների որսորդները, հնարավոր է, անեն ավելին, քան պարզապես բացահայտել AI-ի կողմնակալության առկայությունը: Օրինակ, դուք կարող եք քաղցրացնել պարգևը` նշելով, որ առաջարկվող ուղղումները նույնպես ողջունելի են: AI-ի կողմնակալություն հայտնաբերել պարգևների որսորդի կողմից կարող է վճարվել մեկ նշված պարգև կամ մրցանակ: Եթե ​​պարգևների որսորդը կարող է նաև կենսունակ առաջարկել ուղղել AI-ի կողմնակալության դեպքում նրանք կարող են լրացուցիչ պարգևատրվել:

Ոմանք պնդում են, որ սա շատ հեռու կամուրջ է: Նրանք ասում են, որ դուք պետք է պահեք AI-ի կողմնակալության պարգևների որսորդներին բացառապես կենտրոնացած AI-ի կողմնակալություններ գտնելու վրա: Դուք պատրաստվում եք ստեղծել մի փունջ անցանկալի անբարենպաստ հետևանքներ՝ հրավիրելով նրանց նաև ուղղումներ առաջարկել: Պահպանեք իրերը պարզ: Նպատակը AI-ի կողմնակալության հայտնաբերման վրա հնարավորինս շատ լրացուցիչ ուշադրություն դարձնելն է, որպեսզի կարողանաք որոշել, թե ինչ անել հաջորդը: Մի պղտորեք ջրերը։

Փշոտ ասպեկտը, որը պետք է պարզել, ենթադրում է պարգևի կամ մրցանակի մեծությունը պարգևների որսորդների համար, ովքեր իսկապես բացահայտում են AI-ի կողմնակալությունը: Դուք ցանկանում եք, որ վարձատրությունը լինի ցուցադրական: Առանց բավականաչափ բարձր պարգևի, դուք շատ պարգևների որսորդներ չեք ստանա, կամ նրանք առանձնապես չեն ցանկանա փնտրել AI-ի կողմնակալությունը ձեր AI համակարգերում: Փոխարենը նրանք կարող են կենտրոնանալ AI-ի կողմնակալության պարգևատրման այլ ջանքերի վրա:

Ավելին, ինչպես նշվեց, դուք ցանկանում եք փորձել և զսպել պարգևների որսորդների հորդորը՝ իրենց AI-ի կողմնակալության բացահայտումները վերածել ոսկու այլ ձևերի: Եթե ​​պարգևը խղճուկ է թվում, դա կարող է բարկացնել պարգևների որսորդներին այլ ավելի բարձր վարձատրություններ փնտրելու հարցում: Նրանք կարող են փրկագին մոտեցում ցուցաբերել ձեր նկատմամբ: Նրանք կարող են հայտարարել, որ ունեն հյութալի AI-ի կողմնակալություն, որի մասին մրցակիցը կցանկանար իմանալ և կարող է օգտագործել ձեր ընկերության դեմ՝ պնդելով, որ AI-ի կողմնակալությունը կա ձեր AI-ում: Այսպիսով, նրանք վաճառում են հայտնաբերված AI-ի կողմնակալությունը ամենաբարձր գնորդին: Եվ այսպես շարունակ։

Մեկը ենթադրում է, որ եթե դուք սահմանում եք պարգևը չափազանց բարձր միջակայքում, դուք նաև պոտենցիալ անախորժություն եք խնդրում: Սա կարող է գրավել բոլոր տեսակի առատաձեռն պարգևների որսորդներին: Նրանք, իր հերթին, կարող են սոցցանցերը հեղեղել մշուշոտ պնդումներով, որ նրանք գտել են բազմաթիվ արհեստական ​​ինտելեկտի կողմնակալություններ՝ դա անելով իրենց սեփական ինքնագովազդման համար և իրականում առանց արհեստական ​​ինտելեկտի որևէ կողմնակալություն սփռելու: Ինչ-որ իմաստով, ձեր բարձր պարգևը ակամայից լույս է սփռում ձեր արհեստական ​​ինտելեկտի վրա և հրահրում է մի շարք անբարեխիղճ ցեցերի, որոնք, համապատասխանաբար, վնասակար կերպով գրավվում են շողացող լույսի ճառագայթով:

Մեկ այլ նկատառում ներառում է ձեր AI-ի հասանելիությունը:

AI-ի պարգևների որսի հնարավորությունը ընձեռելու համար պարգևների որսորդները պետք է բավականաչափ մուտք ունենան ձեր AI: Նրանք մեծ բախտին չեն արժանանա AI-ի կողմնակալություններ գտնելու հարցում, եթե դրանք ամբողջությամբ արգելափակված լինեն: Բայց դուք չեք ցանկանում հրաժարվել ձեր կիբերանվտանգության պաշտպանությունից, քանի որ դա կարող է լիովին վտանգի ենթարկել ձեր AI համակարգը:

Դուք կարող եք փորձել ստիպել պարգևների որսորդներին ստորագրել տարբեր օրինական պարտավորեցնող հայտարարություններ և այնուհետև նրանց տրամադրել անհրաժեշտ մուտքը: Որոշ պարգևների որսորդների նման մոտեցումը դուր չի գա: Նրանց տեսակետն այն է, որ նրանք կանեն միայն այն, ինչ թույլ է տալիս հանրությանը հասանելի և բաց ուղին: Նրանք, իբրև թե, ազատ մոլեգնածներ են և չեն սիրում, որ թամբել են: Ստանալով նրանց ստորագրությունը վախեցնելու իրավական փաստաթղթերի վրա, նրանցից շատերը կխուսափեն AI-ի կողմնակալության որոնումից ձեր AI-ում: Կամ նրանք կարող են վրդովվել ձեր օրինական ձեռնոցից և որոշել, որ կտեսնեն, թե ինչ կարող են գտնել հանրային միջոցներով, դա անելով ձեզ ցույց տալու, թե իրականում որքան խոցելի եք, թերևս բուռն մղումով:

Ես ունեմ ևս մեկ անկյուն, որը կարող է ստիպել ձեր գլուխը պտտվել:

AI-ի խելամիտ պարգևների որսորդը կարող է որոշել AI համակարգ մշակել, որը կարող է մանրակրկիտ ուսումնասիրել ձեր AI-ն և, հնարավոր է, բացահայտել AI-ի կողմնակալությունները ձեր AI-ում: Սա գործիքագործն է, ով նախընտրում է գործիք ստեղծել աշխատանքը կատարելու համար, այլ ոչ թե ինքնուրույն կատարել ձեռքի աշխատանք: Ձեր արհեստական ​​ինտելեկտը տքնաջան ուսումնասիրելու փոխարեն՝ AI-ի տիրապետող պարգևների որսորդն իր ժամանակը ծախսում է AI գործիք ստեղծելու վրա, որն անում է նույնը: Այնուհետև նրանք օգտագործում են AI գործիքը ձեր AI-ի վրա: Գեղեցկությունը նաև այն է, որ նրանք, ենթադրաբար, կարող են կրկին օգտագործել AI գործիքը որևէ մեկի վրա, որը նաև առաջարկում է պարգևների որսի հնարավորություն իրենց համապատասխան AI-ի վրա:

Ես գիտեմ, թե ինչ եք դուք հավանաբար մտածում. Եթե ​​AI գործիք կարող է ստեղծվել՝ AI-ի կողմնակալության համար հետազոտելու համար, AI-ի ստեղծողը, որը մանրակրկիտ ուսումնասիրվում է AI-ի կողմնակալության համար, պետք է կա՛մ ստեղծի այդպիսի AI գործիք, կա՛մ գնի այն սեփական օգտագործման համար: Տեսականորեն, սկզբից նրանք կարիք չունեն վիճելու ողջ պարգև որսորդական կառնավալի հետ: Պարզապես օգտագործեք AI-ն՝ գտնելու նրանց AI-ի կողմնակալությունները:

Այո, սա մի բան է, որը դուք կարող եք ակնկալել, որ աստիճանաբար կառաջանա: Միևնույն ժամանակ, այս ջանքերի հիմնական հիմքը, հավանաբար, բաղկացած կլինի AI ծրագրավորողներից, ովքեր կզբաղվեն պարգևների որսով: Նրանք կարող են օգտագործել տարբեր գործիքներ՝ օգնելու իրենց ջանքերին, բայց մոտ ապագայում նրանք դժվար թե պարզապես անմիտ կերպով դնեն AI գործիքը ավտոմատի վրա և այնպես քունեն, որ գործիքը կատարի AI-ի կողմնակալության ամբողջությունը:

Մենք դեռ այնտեղ չենք:

Այս ծանրակշիռ քննարկման այս պահին ես գրազ կգամ, որ դուք ցանկանում եք որոշ պատկերավոր օրինակներ, որոնք կարող են ցուցադրել այս թեման: Կա հատուկ և վստահաբար սիրված օրինակների հավաքածու, որն ինձ հոգեհարազատ է: Տեսեք, որպես AI-ի փորձագետ, ներառյալ էթիկական և իրավական հետևանքները, ինձ հաճախ խնդրում են բացահայտել իրատեսական օրինակներ, որոնք ցույց են տալիս արհեստական ​​ինտելեկտի էթիկայի երկընտրանքները, որպեսզի թեմայի տեսական բնույթն ավելի հեշտությամբ ընկալվի: Ամենաոգեշնչող ոլորտներից մեկը, որը վառ կերպով ներկայացնում է այս էթիկական AI-ի խնդիրը, արհեստական ​​ինտելեկտի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելն է: Սա կծառայի որպես հարմար օգտագործման դեպք կամ օրինակ՝ թեմայի շուրջ լայն քննարկման համար:

Ահա մի ուշագրավ հարց, որի մասին արժե մտածել. Արդյո՞ք արհեստական ​​ինտելեկտի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելը որևէ բան լուսաբանում է AI-ի կողմնակալության պարգևների որսի օգտագործման մասին, և եթե այո, ի՞նչ է սա ցույց տալիս:

Թույլ տվեք մի պահ բացել հարցը:

Նախ, նշեք, որ իրական ինքնակառավարվող մեքենայի մեջ մարդ վարորդ չկա: Հիշեք, որ իսկական ինքնակառավարվող մեքենաները վարում են AI վարորդական համակարգի միջոցով: Ղեկին մարդ վարորդի կարիք չկա, մեքենան վարելու համար մարդ չկա: Ինքնավար տրանսպորտային միջոցների (ԱՎ) և հատկապես ինքնակառավարվող մեքենաների իմ լայնածավալ և շարունակական լուսաբանման համար տե՛ս. հղումն այստեղ.

Ես կցանկանայի ավելի պարզաբանել, թե ինչ է նշանակում, երբ ես վերաբերում եմ իրական ինքնակառավարվող մեքենաներին:

Հասկանալով ինքնակառավարվող մեքենաների մակարդակները

Որպես պարզաբանում, իսկական ինքնակառավարվող մեքենաներն այն մեքենաներն են, որտեղ AI-ն ամբողջությամբ ինքնուրույն է վարում մեքենան, և վարորդական առաջադրանքի ընթացքում մարդկային օգնություն չի ցուցաբերվում:

Այս առանց վարորդի տրանսպորտային միջոցները համարվում են 4-րդ և 5-րդ մակարդակներ (տե՛ս իմ բացատրությունը այս հղումը Մականուն), մինչդեռ մեքենան, որը մարդկային վարորդից պահանջում է համատեղ ջանքեր գործադրել, սովորաբար դիտարկվում է 2-րդ կամ 3-րդ մակարդակում: Մեքենաները, որոնք համատեղ կատարում են վարորդական առաջադրանքը, նկարագրվում են որպես կիսաինքնավար և սովորաբար պարունակում են մի շարք մեքենաներ: ավտոմատացված հավելումներ, որոնք կոչվում են ADAADA
S (Վարորդների աջակցության առաջադեմ համակարգեր):

5-րդ մակարդակում դեռ իրական ինքնակառավարվող մեքենա չկա, և մենք դեռ չգիտենք, թե արդյոք դա հնարավոր կլինի հասնել, և որքան ժամանակ կպահանջվի այնտեղ հասնելու համար:

Միևնույն ժամանակ, 4-րդ մակարդակի ջանքերը աստիճանաբար փորձում են որոշակի ձգողականություն ձեռք բերել՝ անցնելով շատ նեղ և ընտրովի հանրային ճանապարհային փորձարկումներ, թեև հակասություններ կան այն հարցի շուրջ, թե արդյոք այս թեստավորումն ինքնին պետք է թույլատրվի (մենք բոլորս փորձի մեջ կյանքի կամ մահվան ծովախոզուկներ ենք: ոմանք պնդում են, որ տեղի է ունենում մեր մայրուղիներում և ճանապարհների վրա, տես իմ լուսաբանումը այս հղումը Մականուն).

Քանի որ կիսաավտոմեքենաները մարդկային վարորդ են պահանջում, այդպիսի մեքենաների ընդունումը չի տարբերվի սովորական տրանսպորտային միջոցներից վարվելուց, հետևաբար, այս թեմայի շուրջ դրանց մասին ծածկելու համար ամենևին էլ նոր բան չկա (չնայած, ինչպես կտեսնեք մի ակնթարթում ընդհանուր առմամբ կիրառվում են հաջորդ կետերը):

Կիսաանվտանգ ավտոմեքենաների համար կարևոր է, որ հասարակությունը պետք է նախազգուշացվի վերջին շրջանում ի հայտ եկած անհանգստացնող կողմի մասին, մասնավորապես այն, որ չնայած այն մարդկային վարորդներին, ովքեր շարունակում են փակցնել իրենց տեսահոլովակները իրենց մասին, քնում են «Level 2» կամ «Level 3» մեքենայի ղեկին: , մենք բոլորս պետք է խուսափենք ապակողմնորոշվելուց `հավատալով, որ վարորդը կարող է իրենց ուշադրությունը հանել վարորդական առաջադրանքից` կիսաավտոմեքենան վարելիս:

Դուք պատասխանատու կողմն եք տրանսպորտային միջոցի վարման գործողությունների համար, անկախ նրանից, թե որ ավտոմատացումը կարող է տեղափոխվել 2-րդ մակարդակի կամ 3-րդ մակարդակի:

Self-Driving Cars And AI Bias Bounty Hunting

4-րդ և 5-րդ մակարդակների իսկական ինքնագնաց տրանսպորտային միջոցների համար վարորդական գործին չի մասնակցի մարդկային վարորդ:

Բոլոր գրավյալները ուղևորներ են լինելու:

AI- ն վարում է վարումը:

Անմիջապես քննարկելու մի ասպեկտ ենթադրում է այն փաստը, որ այսօր AI- ի վարման համակարգերում ներգրավված AI- ն զգայուն չէ: Այլ կերպ ասած, AI- ն ընդհանուր առմամբ համակարգչային ծրագրավորման և ալգորիթմների հավաքածու է, և, անկասկած, ի վիճակի չէ տրամաբանել այնպես, ինչպես մարդիկ կարող են:

Ինչու՞ է այս հավելյալ շեշտադրումը արհեստական ​​ինտելեկտի մասին զգացմունքային չէ:

Քանի որ ես ուզում եմ ընդգծել, որ երբ քննարկում եմ AI շարժիչ համակարգի դերը, ես մարդկային որակներ չեմ վերագրում AI- ին: Խնդրում ենք տեղյակ լինել, որ այս օրերին շարունակական և վտանգավոր միտում կա AI- ն մարդաբանելու համար: Ըստ էության, մարդիկ մարդկային նման զգացողություն են հատկացնում այսօրվա AI- ին, չնայած անհերքելի և անառարկելի փաստին, որ այդպիսի AI դեռ գոյություն չունի:

Այդ պարզաբանմամբ դուք կարող եք պատկերացնել, որ AI վարելու համակարգը բնիկ ինչ-որ կերպ «չի իմանա» վարման կողմերի մասին: Վարորդությունն ու դրա հետևանքները պետք է ծրագրավորվեն որպես ինքնակառավարվող մեքենայի սարքավորումների և ծրագրակազմի մաս:

Եկեք սուզվենք այն անհամար ասպեկտների մեջ, որոնք սկսում են խաղալ այս թեմայի շուրջ:

Նախ, կարևոր է գիտակցել, որ ոչ բոլոր ինքնակառավարվող AI մեքենաները նույնն են: Յուրաքանչյուր ավտոարտադրող և ինքնակառավարվող տեխնոլոգիական ընկերություն իր մոտեցումն է ցուցաբերում ինքնակառավարվող մեքենաների ստեղծման հարցում: Որպես այդպիսին, դժվար է լայնածավալ հայտարարություններ անել այն մասին, թե ինչ կանեն կամ չեն անեն AI վարորդական համակարգերը:

Ավելին, ամեն անգամ, երբ նշվում է, որ արհեստական ​​ինտելեկտի կառավարման համակարգը որոշակի բան չի անում, դա հետագայում կարող է շրջանցվել այն մշակողների կողմից, որոնք իրականում ծրագրավորում են համակարգիչը հենց դա անելու համար: Քայլ առ քայլ, արհեստական ​​ինտելեկտի շարժիչ համակարգերը աստիճանաբար բարելավվում և ընդլայնվում են: Այսօր գոյություն ունեցող սահմանափակումն այլևս գոյություն չի ունենա համակարգի ապագա կրկնության կամ տարբերակի դեպքում:

Հուսով եմ, որ դա բավարար քանակությամբ զգուշացումներ է տալիս՝ հիմքում ընկնելու այն, ինչ ես պատրաստվում եմ պատմել:

Իմ սյունակներում ես արդեն երկար քննարկել եմ վրիպակների վրա հիմնված պարգևների որսորդների օգտագործումը ինքնավար մեքենաների և ինքնակառավարվող մեքենաների ոլորտում: Այս մոտեցումն իսկապես տեղի է ունեցել այս խորշում։ Կան սովորական բանավեճեր այն մասին, թե դա առողջ գաղափար է, թե ոչ։ Սովորաբար ջանքերը սահմանափակ բնույթ են կրել, հաճախ համեմատաբար լուռ են մնացել:

Նմանատիպ դիսկուրս կարող է առաջանալ, երբ ուշադրությունը փոխվում է AI-ի կողմնակալության որսի վրա, այլ ոչ թե ինքնին համակարգային սխալներ փնտրելու վրա: Ոմանք ասում են, որ դա անիծված է, եթե անես, անիծված է, եթե չես տարակուսում:

Ահա թե ինչու:

Նախ, պարզ լինելու համար, կան բազմաթիվ եղանակներ, որոնցով ինքնավար տրանսպորտային միջոցները և ինքնակառավարվող մեքենաները կարող են ենթարկվել AI-ի կողմնակալության պարունակության, տես իմ լուսաբանումը այստեղ հղումն այստեղ և հղումն այստեղ, ընդամենը մի քանիսը նշելու համար: Ավտոարտադրողները և ինքնակառավարվող մեքենաների ֆիրմաները խելամիտ կթվա՝ փորձելով կանխել արհեստական ​​ինտելեկտի այդ կողմնակալությունները իրենց AI համակարգերում: Նման ֆիրմաների դեմ իրավական և էթիկական կրակը, անկասկած, ինտենսիվ է լինելու:

Արդյո՞ք AI-ի կողմնակալության պարգևների որսի փորձի օգտագործումը հարմար մոտեցում է այս կոնկրետ համատեքստում:

Պատասխաններից մեկն այն է, որ այո, սա հարմար կլինի և կտրամադրի նոր աչքերի առատ «անվճար» հավաքածուներ՝ փորձելու և որսալ AI ինքնակառավարվող մեքենայի ցանկացած ներկառուցված AI-ի կողմնակալություն կամ նման բան: Ինքնաշարժ մեքենաներ կառուցող արհեստական ​​ինտելեկտի մշակողների մեծ մասը զբաղված է արհեստական ​​ինտելեկտով, որը կարող է ապահով կերպով մեքենա վարել A կետից մինչև B կետ: Նրանք զբաղված են այդ հիմնական ունակությամբ և ժամանակ և ուշադրություն չեն հատկացնում AI-ի որևէ կողմնակալությանը, որը կարող է լինել ինչ-որ տեղ: նրանց AI.

Մյուս պատասխանն այն է, որ ոչ, ինքնավար տրանսպորտային միջոցների և ինքնակառավարվող մեքենաների համար պարգևների որսը թույլատրելը ցանկացած հիմքի վրա, լինի դա սխալների կամ AI-ի կողմնակալության համար, պարզապես պետք է խստորեն խուսափել: Փաստարկն այն է, որ այս մեքենաները և դրանց արհեստական ​​ինտելեկտը կենաց-մահու տրամաչափի են: AI-ի հետ ցանկացած ձևով խառնվելը կարող է ինչ-որ կերպ կործանարար լինել AI-ի համար և ազդել այն բանի վրա, թե ինչ է անում AI շարժիչ համակարգը:

Այս վերջին կետի հակափաստարկն այն է, որ պարգևների որսորդները ենթադրաբար չեն կարող փոխել AI-ն, որը նրանք ուսումնասիրում են: Այսպիսով, վտանգ չկա, որ նրանք խառնվեն AI-ի հետ և ստիպեն, որ AI-ն այս համատեքստում հանկարծ դառնա խելագար AI վարորդական համակարգ: Բունտի որսորդները միայն կարդալու հասանելիություն ունեն: Նրանց ավելի հեռուն գնալու թույլ տալը մեծապես հիմարություն և մեծ սխալ կլինի:

Այդ հակափաստարկի հակափաստարկն այն է, որ թույլատրելով և խրախուսելով պարգևների որսորդներին ուսումնասիրել ձեր AI-ն, ամբողջ հարցը դառնում է ցայտուն: Այդ պարգևների որսորդները կարող են գտնել ուղիներ՝ օգտագործելու հայտնաբերված սխալները կամ կողմնակալությունները: Այդ շահագործումներն իրենց հերթին կարող են լինել նենգ նպատակների համար: Ավելի լավ կլիներ, այսպես ասած, «կողոպտիչներին» ձեր տուն չհրավիրեիք: Հենց որ նրանք դուրս հանեն հոդը, դուք, ի վերջո, կհայտնվեք դժվարությունների կույտի մեջ:

Նրանց համար, ովքեր ունեն ավելի քիչ, քան կյանքի կամ մահվան մագնիտուդի AI համակարգեր, համոզմունքն այն է, որ առատաձեռն որսի հետևանքները, որոնք շեղվում են, շատ ավելի քիչ ռիսկային են: Գուցե այդպես է։ Մյուս կողմից, եթե ընկերությունն իր գումարները լցրել է արհեստական ​​ինտելեկտի համակարգում, որը պարգևների որսորդներին հաջողվում է յուրացնել, կարող եք ենթադրել, որ հեղինակության և այլ հնարավոր վնասները դեռ կվնասեն:

Չկա անվճար ճաշ, երբ խոսքը վերաբերում է AI-ի կողմնակալության պարգևների որսին:

Առայժմ արագ փակման խոսք:

Երբ Հին Արևմուտքի ժամանակ փնտրում էին տխրահռչակ ապօրինի Ջեսսի Ջեյմսին, տպագրվեց «Փնտրվում է» պաստառ, որը առաջարկում էր 5,000 դոլար պարգև նրա ձերբակալության համար (նշելով «մեռած կամ կենդանի»): Դա այն ժամանակ բավականին հսկայական գումար էր: Նրա սեփական հանցախմբի անդամներից մեկը նախընտրեց սպանել Ջեսսին և հավաքել պարգևը: Ենթադրում եմ, որ դա ցույց է տալիս, թե որքան արդյունավետ կարող է լինել պարգևը:

Արդյո՞ք AI-ի կողմնակալության պարգևների որսորդների օգտագործումը լավ բան կլինի, թե վատ:

Եթե ​​դուք նախընտրում եք նախաձեռնել AI-ի կողմնակալության պարգևների որսորդական նախաձեռնություն, ես կառաջարկեի, որ ձեր աչքերը լայն բաց մնաք և միշտ նայեք ձեր ուսի վրայով: Սա խելամիտ է ձեր և ձեր AI-ի համար: Դուք երբեք չգիտեք, թե ինչ կարող է պատահել, ներառյալ այն, որ խաբեբա պարոնայք որսորդը ինչ-որ կերպ գաղտնի կերպով ներդնում է AI-ի կողմնակալություն ձեր AI-ի մեջ և բղավում աշխարհին, որ նրանք գտել են անբարեխիղճ AI-ի կողմնակալություն ձեր AI-ի մեջ: Թերևս դա անում են պարգևի պարգևը փնտրելու լկտի և չափից դուրս փորձով, գումարած իրենց հերոս հռչակելով, ինչը, ըստ էության, ստացել է մեծարված Ջեսսի Ջեյմսին:

Մտածեք դրա մասին, խելամիտ արհեստական ​​ինտելեկտին հավանաբար դուր չի գա մեռած կամ կենդանի դրույթի անհանգստացնող գաղափարը, կարելի է դաժանորեն ենթադրել:

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- էթիկական-չար-լիովին-ինքնավար-համակարգերը-խոհեմ-կամ-անօգուտ/