«Վստահության անկման» զանգվածային բուծումը նպատակ ունի քայքայել պատասխանատու AI-ն ասում է, որ AI էթիկան և AI օրենքը

Համոզված եմ, որ դուք ծանոթ եք հին ասացվածքին, որ բարձրացող մակընթացությունը բարձրացնում է բոլոր նավակները: Այդ մետաղադրամի մյուս կողմն էլ կա, թերևս ոչ այնքան հայտնի, այն է, որ նահանջող մակընթացությունը խորտակում է բոլոր նավերը:

Ներքևում, երբեմն մակընթացությունն է որոշում՝ դուք բարձրանում եք, թե իջնում:

Մակընթացությունը պատրաստվում է անել այն, ինչ անում է: Դուք կարող եք որևէ հատուկ կարծիք չունենալ այս հարցում: Եթե ​​ձեր նավը խարսխված է կամ խարսխված է ալիքի մեջ, դուք գտնվում եք ալիքի քմահաճույքի մեջ: Հիմնական բանը գիտակցելն է, որ ալիքը գոյություն ունի, ինչպես նաև կանխատեսել, թե որ ուղղությամբ է այն գնում: Մի փոքր բախտի դեպքում դուք կարող եք դուրս գալ ալիքից և մնալ անվնաս:

Եկեք դիտարկենք, թե ինչպես է այս ծովագնացության բոլոր խոսակցությունները առնչվում նավակների և մակընթացությունների մասին Արհեստական ​​ինտելեկտին (AI):

Նախ, ես կցանկանայի ձեզ ներկայացնել ավելի ու ավելի տարածված արտահայտությունը Պատասխանատու AI. Ընդհանուր պատկերացումն այն է, որ մենք ցանկանում ենք արհեստական ​​ինտելեկտ, որը կհամապատասխանի պատշաճ և ցանկալի մարդկային արժեքներին: Ոմանք դա վերաբերում են որպես Պատասխանատու AI. Մյուսները նմանապես քննարկում են Հաշվետու AI, Վստահելի AI, եւ AI հավասարեցում, որոնք բոլորն էլ շոշափում են նույն հիմնաքարային սկզբունքը։ Այս կարևոր հարցերի շուրջ իմ քննարկման համար տե՛ս հղումն այստեղ և հղումն այստեղ, պարզապես նշելու համար մի քանիսը AI էթիկայի և AI օրենքի իմ շարունակական և լայնածավալ լուսաբանման մեջ Forbes-ի իմ սյունակում:

Արհեստական ​​ինտելեկտի հավասարեցման հանելուկը ենթադրող կարևոր բաղադրիչը վստահության երևույթ է ներառում: Կարո՞ղ ենք վստահել, որ AI-ն ապահով և առողջ կլինի: Կարո՞ղ ենք վստահել, որ արհեստական ​​ինտելեկտը մշակողները կփորձեն դա անել պատասխանատու և պատշաճ ձևով: Կարո՞ղ ենք մենք վստահել նրանց, ովքեր ոլորտային AI-ն են և զբաղվում են AI-ի գործարկմամբ և պահպանմամբ:

Դա մեծ վստահություն է:

Արհեստական ​​ինտելեկտի էթիկայի և AI օրենքի կողմից շարունակական ջանքեր են գործադրվում արհեստական ​​ինտելեկտի նկատմամբ վստահության զգացումն ամրապնդելու համար: Հավատքն այն է, որ համապատասխան «փափուկ օրենքներ» հաստատելով, որոնք նախատեսված են որպես ուղեցույցների կամ Արհեստական ​​ինտելեկտի էթիկական կանոնների մի շարք, մենք կարող ենք պայքարի հնարավորություն ունենալ՝ ստիպելու AI ծրագրավորողներին և AI օպերատորներին պահպանել էթիկապես առողջ գործելակերպը: Բացի այդ, եթե մենք մշակենք և ընդունենք բավականաչափ ուշադիր օրենքներ և կանոնակարգեր, որոնք վերահսկում կամ կառավարում են AI-ն, որոնք համարվում են «կոշտ օրենքներ»՝ պաշտոնական իրավական գրքերում տեղակայվելու պատճառով, մեծ հնարավորություն կա AI-ն ուղղորդելու դեպի ուղիղ և իրավաբանորեն թույլատրելի ճանապարհ:

Եթե ​​մարդիկ չվստահեն արհեստական ​​ինտելեկտին, նրանք չեն կարողանա ստանալ այն առավելությունները, որոնք ներծծում են լավ արհեստական ​​ինտելեկտը: Ես մի պահ մատնանշեմ, որ կա AI For Good և, ցավոք, կա նաև AI For Bad. Վատ AI-ն կարող է ազդել մարդկության վրա անհամար անբարենպաստ ձևերով: Գոյություն ունի AI, որը գործում է խտրական ձևերով և ցուցադրում է անհարկի կողմնակալություն: Կա AI, որը կարող է անուղղակի կամ անուղղակիորեն վնասել մարդկանց: Եվ այսպես շարունակ։

Այսպիսով, մենք ունենք AI For Good որ մենք ջերմեռանդորեն ցանկանում ենք մշակվել և գործածվել։ Մինչդեռ կա AI For Bad որը մենք ցանկանում ենք կրճատել և փորձել և կանխել: AI For Bad հակված է նվազեցնել AI-ի նկատմամբ վստահությունը: AI For Good սովորաբար մեծացնում է AI-ի նկատմամբ վստահությունը: Ծանր պայքար է սկսվում վստահության աճող աճի միջև, որը շարունակաբար թուլանում է վստահության դաժան խարխլմամբ:

Արհեստական ​​ինտելեկտի վստահությունը դեպի վեր է գնում, որը հետագայում տապալվում է: Այնուհետև AI-ի վստահության իջեցված մակարդակները ևս մեկ անգամ բարձրանում են: Հետ ու առաջ, AI-ի վստահության մակարդակները տեսել են: Գրեթե բավական է գլխապտույտ առաջացնելու համար։ Ձեր ստամոքսը ցնցվում է, նման է ծովախտի նմանությանը, ինչպես նավակում լինելը, որը ճոճվում և ճոճվում է օվկիանոսում:

Մինչ այդ ճակատամարտը տեղի է ունենում, դուք կարող եք պնդել, որ կա ևս մեկ մակրոսկոպիկ գործոն, որն էլ ավելի մեծ ջանքեր է գործադրում վստահության մասշտաբային առաջընթացի վրա: Խաղում շատ ավելի մեծ բան կա: Արհեստական ​​ինտելեկտի վստահության վեր ու վար հարվածը ծովային հրեշի ալիքի քմահաճույքն է: Այո, AI վստահությունը նման է նավակի, որը լողում է թագավորությունում, որն ի վերջո ավելի ցայտուն է, քան միջև տեղի ունեցող մարտերն ու բախումները: AI For Good և AI For Bad.

Աշխարհում ինչի՞ն եմ ակնարկում, գուցե տարակուսաբար հարցնեք:

Ես ակնարկում եմ զանգվածային «վստահության անկում» որ մեր հասարակությունը ներկայումս դիմանում է.

Թույլ տվեք պարզաբանել.

Այսօր մամուլում շատ է խոսվում ռեցեսիայի մասին:

Տնտեսական իմաստով ռեցեսիան համարվում է տնտեսության կրճատում, որը սովորաբար կապված է տնտեսական ակտիվության անկման հետ: Մենք սովորաբար ականատես կամ անկում ենք ապրում այնպիսի տնտեսական պայմաններով, ինչպիսիք են իրական եկամուտների անկումը, ՀՆԱ-ի (Համախառն ներքին արդյունքի) անկումը, զբաղվածության թուլացումը և աշխատանքից ազատումները, արդյունաբերական արտադրության նվազումը և այլն: Ես չեմ պատրաստվում գնալ տնտեսական անկումների մասին ընդլայնված քննարկման, որի համար շատ բանավեճեր կան այն մասին, թե ինչ է իրենից ներկայացնում բարեխիղճ անկում ընդդեմ պնդումների կամ վիճարկվողների (կարող եք գտնել բազմաթիվ խոսող ղեկավարների, որոնք բուռն կերպով քննարկում են այդ թեման):

«Ռեցեսիա» հասկացությունն ընդլայնվել է՝ ներառելով հասարակության այլ ասպեկտներ՝ դուրս գալով միայն տնտեսական կենտրոնից: Դուք կարող եք վերաբերել այս կամ այն ​​բանի ցանկացած դանդաղեցմանը, որպես ռեցեսիայի մեջ ընկղմվել: Դա հարմար բառ է բազմաթիվ կիրառություններով:

Պատրաստվեք մեկ օգտագործման, որի մասին գուցե դեռ չեք լսել:

Վստահության անկում.

Ճիշտ է, կարելի է խոսել մի երեւույթի մասին, որը հայտնի է ա վստահության անկում.

Էությունը այն է, որ հասարակությունն ընդհանուր առմամբ կարող է զգալ վստահության դանդաղում կամ նվազում: Դուք դա, անկասկած, զգացել եք: Եթե ​​դուք օգտագործում եք որևէ տեսակի սոցիալական մեդիա, ապա, անշուշտ, թվում է, թե վստահությունը մեր հիմնական ինստիտուտների նկատմամբ, ինչպիսիք են մեր կառավարությունները կամ խոշոր կազմակերպությունները, կտրուկ ընկել է: Իրերն այդպես են զգում:

Դուք միայնակ չեք, որ զգացել եք հասարակության վստահության անկման այդ ողնաշարի սառեցնող երանգը:

Հոդվածում The Atlantic Անցյալ տարի «Վստահության վերջը» վերնագրված հետևյալ հիմնական բացահայտումները, թե ուր է գնում մեր հասարակությունը.

  • «Մենք կարող ենք վստահության անկման մեջ լինել»
  • «Վստահության պարույրը, երբ սկսվել է, դժվար է շրջվել»
  • «Նրա անկումը անորոշորեն զգացվում է, նախքան պարզ երևալը»

Վստահության անկումը մի տեսակ գաղտագողի է հասնում մեզ բոլորիս: Թիզ առ թիզ վստահությունը թուլանում է։ Վստահություն ստեղծելու ջանքերն ավելի ու ավելի դժվար են դառնում: Թերահավատությունը գերիշխում է: Մենք կասկածում ենք, որ վստահություն պետք է տրվի։ Մենք նույնիսկ չենք հավատում, որ վստահությունը կարելի է առանձնապես վաստակել (ինչ-որ իմաստով վստահությունը ուրվական է, կեղծիք, այն չի կարելի կոնկրետացնել և վստահել):

Բանն այն է, որ մեզ վստահություն է պետք մեր հասարակության մեջ։

Նույն հոդվածի համաձայն. «Վստահություն. Առանց դրա Ադամ Սմիթի անտեսանելի ձեռքը մնում է գրպանում. Քեյնսի «կենդանական ոգիները» խլացված են։ «Գրեթե յուրաքանչյուր առևտրային գործարք իր մեջ վստահության տարր ունի», - գրել է Նոբելյան մրցանակի դափնեկիր տնտեսագետ Քենեթ Էրոուն 1972 թվականին» (ինչպես մեջբերում է «The End Of Trust», The Atlantic, նոյեմբերի 24, 2021, Jerry Useem):

Հետազոտությունները ցույց են տալիս, որ գրեթե ուղղակի կապ կա տնտեսական գործունեության և հասարակության մեջ վստահության տարրի միջև: Սա, թերևս, վիճելի պնդում է, թեև թվում է, թե ինտուիտիվորեն ջուր է պահում: Նկատի առեք այս ուշագրավ պնդումը. «Տնտեսագետ Փոլ Զակը և Սթիվեն Քնակը 1998-ին հրապարակված ուսումնասիրության մեջ պարզեցին, որ ազգի 15 տոկոսով այն համոզմունքը, որ «մարդկանց մեծամասնությանը կարելի է վստահել» ամեն տարի ամբողջ տոկոսային կետ է ավելացնում տնտեսական աճին»։ (նույն տեղում):

Մի պահ տրամադրեք և մտածեք վստահության մասին ձեր սեփական տեսակետների վրա:

Դուք այսօր վստահության ավելի մեծ մակարդակ ունե՞ք, թե՞ վստահության նվազեցված մակարդակ այս համապատասխան ոլորտներից յուրաքանչյուրում.

  • Վստահություն կառավարությանը
  • Վստահություն բիզնեսին
  • Վստահեք առաջնորդներին
  • Վստահեք ազգերին
  • Վստահեք ապրանքանիշերին
  • Վստահեք լրատվականներին
  • Վստահություն անհատների նկատմամբ

Եթե ​​դուք իսկապես կարող եք ասել, որ ձեր վստահությունն ավելի բարձր է, քան նախկինում եղել է այդ բոլոր կողմերի համար, ապա ձեզ համար գլխարկի ապշեցուցիչ ծայրը (դուք ապրում եք անմխիթար երանության աշխարհում): Մեծ հաշվով, ես համարձակվում եմ ասել, որ մոլորակի մեծ մասը հակառակը կարտահայտեր՝ իրենց վստահության տեսակետից այդ սրբապատկերային տարրերի նկատմամբ, որոնք իջել են:

Հատկանշականորեն այդպես է:

Տվյալները կարծես հաստատում են այն պնդումը, որ վստահությունը քայքայվել է մեր հասարակության մեջ: Ընտրեք վերը նշված ոլորտներից որևէ մեկը: Պետական ​​կարողությունների նկատմամբ մեր հավատքի առումով. «Կառավարության նկատմամբ վստահությունը կտրուկ իջավ իր գագաթնակետից 1964 թվականին, ըստ Pew Research Center-ի, և, մի քանի բացառություններով, այն ժամանակից ի վեր ցրվում է» (նույն տեղում):

Դուք կարող եք գայթակղվել պնդելու, որ անհատների նկատմամբ վստահությունը չպետք է լինի ցուցակում: Իհարկե, մենք դեռ վստահում ենք միմյանց։ Միայն այն մեծ վատ ինստիտուտներն են, որոնց մենք այլևս վստահություն չունենք: Անձի առ անձ, մեր վստահությունը պետք է լինի այնպիսին, ինչպիսին եղել է միշտ:

Կներեք, որ ասում եմ ձեզ հետևյալը. «Առանձին ամերիկացիների միջև վստահության վերաբերյալ տվյալներ ավելի դժվար է ձեռք բերել. Ըստ Pew-ի, հարցումները հարցեր են տվել այսպես կոչված միջանձնային վստահության վերաբերյալ: Սակայն, ըստ մեկ գնահատականի, ամերիկացիների տոկոսը, ովքեր հավատում էին, որ «մարդկանց մեծամասնությանը կարելի է վստահել», 45-ականների կեսերին մոտ 80 տոկոս էր. այն այժմ 30 տոկոս է» (նույն տեղում):

Դաժան, բայց իրական.

Վստահության վերաբերյալ փորձագետների հետ վերջերս տված հարցազրույցը հանգեցրեց այս ցուցադրությանը.

· «Վատ նորությունն այն է, որ եթե վստահությունը այս թանկարժեք բնական ռեսուրսն է, ապա այն վտանգված է: Այսպիսով, 1972 թվականին ամերիկացիների մոտ կեսը համաձայնեց, որ մարդկանց մեծ մասին կարելի է վստահել: Սակայն մինչև 2018 թվականը այն նվազել է մինչև 30%: Մենք շատ ավելի քիչ վստահում ենք հաստատություններին, քան 50 տարի առաջ: Օրինակ՝ 1970 թվականին ամերիկացիների 80%-ը վստահում էր բժշկական համակարգին։ Այժմ այն ​​38% է: 1970-ականներին հեռուստատեսային լուրերը կազմում էին 46%: Հիմա այն 11 տոկոս է։ Կոնգրես, 42% դեպի 7%: Մենք ապրում ենք վստահության հսկայական անկման միջով, և դա մեզ վնասում է մի շարք ձևերով, որոնց մասին, հավանաբար, մարդկանց մեծամասնությունը բացարձակապես տեղյակ չէ» (հարցազրույց Ջոնաթան Չանգի և Մեգնա Չակրաբարտիի, «Essential Trust. The Brain Science Of Trust», WBUR, նոյեմբեր: 29, 2022 թ. և մեջբերել Ջամիլ Զաքիի՝ Սթենֆորդի համալսարանի հոգեբանության դոցենտ և Սթենֆորդի սոցիալական նյարդաբանության լաբորատորիայի տնօրենի խոսքերը):

Վստահության տարբեր ազգային և համաշխարհային հետազոտություններ հայտնաբերել են բարոմետրեր, որոնք կապված են վստահության հասարակության մակարդակների հետ: Արդյունքներին նույնիսկ հպանցիկ հայացքը ցույց է տալիս, որ վստահությունն ընկնում է, ընկնում, ընկնում:

Հակառակ դեպքում միջին տարբերակը բնորոշ վստահության անկում «արդիականացվել է»՝ պիտակավորվելով որպես ա մեծ վստահության անկում. Մենք պարզապես վստահության անկում չունենք. փոխարենը մենք ունենք վստահության համապարփակ զանգվածային անկում: Մեծ ժամանակ. Դառնալով ավելի ու ավելի մեծ: Այն ներթափանցում է մեր գոյության բոլոր ձևերը: Եվ վստահության այս հսկայական անկումը շոշափում է մեր արածի և մեր կյանքի ընթացքի յուրաքանչյուր անկյուն:

Այդ թվում՝ արհեստական ​​ինտելեկտը։

Ես կռահեցի, որ դուք տեսել եք, որ գալիս է: Ես ավելի վաղ նշել էի, որ ճակատամարտը AI For Good ընդդեմ AI For Bad տեղի է ունենում. AI-ի էթիկայի և AI-ի իրավունքի ասպարեզում հայտնվածներից շատերն ամեն օր առնչվում են այդ նախկին մարտերի վերելքներին և վայրէջքներին: Մենք ցանկանում ենք, որ հաղթի Պատասխանատու AI-ն: Զարմանալիորեն շատերի համար, ովքեր գտնվում են այս սրված մարտերում, նրանք չգիտեն ազդեցությունները վստահության զանգվածային անկման պատճառով, որը, ինչ-որ իմաստով, հաղթահարում է այն ամենը, ինչ տեղի է ունենում AI վստահության մարտադաշտերում:

Մակընթացությունը վստահության զանգվածային անկումն է: Արհեստական ​​ինտելեկտի հետ կապված մարտական ​​վստահությունը նավակ է, որն ինքնուրույն վեր ու վար է գնում և, ցավոք, իջնում ​​է ընդհանուր առմամբ՝ մակընթացության նահանջի պատճառով: Քանի որ հասարակությունն ընդհանուր առմամբ վարակված է վստահության զանգվածային անկմամբ, այնպես էլ վստահությունը AI-ի նկատմամբ:

Ես չեմ ուզում, որ սա պարտվողական թվա:

AI-ի նկատմամբ վստահության համար պայքարը պետք է շարունակվի. Այն ամենը, ինչ ես փորձում եմ ընդգծել, այն է, որ քանի դեռ այդ մարտերը շարունակվում են, հիշեք, որ վստահությունն ամբողջությամբ սպառվում է հասարակությունից: Ավելի ու ավելի քիչ է կարելի բուֆետի ենթարկել կամ ամրապնդել վստահությունը: Վստահության մնացորդները կդժվարացնեն հաղթելը AI For Good վստահել հավակնություններին.

Այդ անիծյալ ալիքը կործանում է բոլոր նավերը, ներառյալ AI-ի նկատմամբ վստահությունը:

Մի պահ տրամադրեք լապշա այս երեք բավականին ուշագրավ հարցերին.

  • Ի՞նչ կարող ենք անել համատարած հասարակության հետ վստահության զանգվածային անկում երբ խոսքը AI-ի մասին է:
  • Արդյո՞ք AI-ն դատապարտված է նկուղային մակարդակի ամենաբարձր վստահությանը՝ անկախ նրանից, թե ինչ է անում AI-ի էթիկան կամ AI-ի օրենքը:
  • Արդյո՞ք արհեստական ​​ինտելեկտի ոլորտում գտնվողները պետք է ձեռնոց նետեն AI-ի վստահությանը:

Ուրախ եմ, որ հարցրեցիր։

Նախքան թեմայի մեջ խորանալը, ես կցանկանայի նախ որոշ էական հիմքեր դնել AI-ի և հատկապես AI-ի էթիկայի և AI օրենքի վերաբերյալ՝ դա անելով համոզվելու համար, որ քննարկումը կլինի համատեքստում խելամիտ:

Էթիկական արհեստական ​​ինտելեկտի և նաև AI օրենքի մասին իրազեկության բարձրացում

AI-ի վերջին դարաշրջանը ի սկզբանե դիտվում էր որպես գոյություն AI For Good, ինչը նշանակում է, որ մենք կարող ենք AI-ն օգտագործել մարդկության բարելավման համար: -ի կրունկների վրա AI For Good եկավ այն գիտակցումը, որ մենք նույնպես խորասուզված ենք AI For Bad. Սա ներառում է արհեստական ​​ինտելեկտը, որը ստեղծվել կամ ինքնափոխվել է՝ դառնալով խտրական և կատարում է հաշվարկային ընտրություն՝ ներծծելով անհարկի կողմնակալություններ: Երբեմն արհեստական ​​ինտելեկտը կառուցվում է այդպես, մինչդեռ այլ դեպքերում այն ​​շեղվում է դեպի այդ անբարենպաստ տարածք:

Ես ուզում եմ առատորեն համոզվել, որ մենք նույն էջում ենք այսօրվա AI-ի բնույթի վերաբերյալ:

Այսօր չկա որևէ AI, որը զգայուն է: Մենք սա չունենք: Մենք չգիտենք, թե արդյոք հնարավո՞ր է խելացի AI-ն: Ոչ ոք չի կարող տեղին կանխագուշակել, թե արդյոք մենք կհասնենք խելամիտ AI-ին, և ոչ էլ արդյոք զգայական AI-ն ինչ-որ կերպ հրաշքով ինքնաբերաբար կառաջանա հաշվողական ճանաչողական գերնոր աստղի տեսքով (սովորաբար կոչվում է եզակիություն, տե՛ս իմ լուսաբանումը այստեղ. հղումն այստեղ).

AI-ի տեսակը, որի վրա ես կենտրոնանում եմ, բաղկացած է ոչ զգայուն AI-ից, որն այսօր ունենք: Եթե ​​մենք ցանկանայինք խելամիտ ենթադրություններ անել խելացի արհեստական ​​ինտելեկտի մասին, ապա այս քննարկումը կարող էր գնալ արմատապես այլ ուղղությամբ: Զգացող AI-ն ենթադրաբար մարդկային որակի կլիներ: Դուք պետք է հաշվի առնեք, որ զգայուն AI-ն մարդու ճանաչողական համարժեքն է: Ավելին, քանի որ ոմանք ենթադրում են, որ մենք կարող ենք ունենալ գերխելացի AI, կարելի է պատկերացնել, որ նման AI-ն կարող է ավելի խելացի լինել, քան մարդիկ (որպես հնարավոր է գերխելացի AI-ի իմ ուսումնասիրությունը տե՛ս. լուսաբանումն այստեղ).

Ես խստորեն կառաջարկեի, որ մենք ամեն ինչ ցած պահենք և հաշվի առնենք այսօրվա հաշվողական ոչ զգայուն AI-ն:

Գիտակցեք, որ այսօրվա AI-ն ի վիճակի չէ «մտածել» մարդկային մտածողությանը հավասար: Երբ դուք շփվում եք Alexa-ի կամ Siri-ի հետ, խոսակցական կարողությունները կարող են նման լինել մարդկային կարողություններին, բայց իրականությունն այն է, որ այն հաշվողական է և չունի մարդկային ճանաչողություն: AI-ի վերջին դարաշրջանը լայնորեն օգտագործել է մեքենայական ուսուցում (ML) և Deep Learning (DL), որոնք օգտագործում են հաշվողական օրինաչափությունների համընկնումը: Սա հանգեցրել է արհեստական ​​ինտելեկտի համակարգերի, որոնք ունեն մարդու նման հակումների տեսք: Միևնույն ժամանակ, այսօր չկա որևէ արհեստական ​​բանականություն, որն ունի ողջամտության նմանություն և ոչ էլ ունի ուժեղ մարդկային մտածողության ճանաչողական հրաշք:

Շատ զգույշ եղեք այսօրվա արհեստական ​​ինտելեկտը մարդաբանական դարձնելուց:

ML/DL-ը հաշվողական օրինաչափությունների համապատասխանության ձև է: Սովորական մոտեցումն այն է, որ դուք հավաքում եք տվյալներ որոշումներ կայացնելու առաջադրանքի վերաբերյալ: Դուք սնուցում եք տվյալները ML/DL համակարգչային մոդելների մեջ: Այդ մոդելները ձգտում են գտնել մաթեմատիկական օրինաչափություններ: Այդպիսի օրինաչափություններ գտնելուց հետո, եթե գտնվեն, ապա արհեստական ​​ինտելեկտի համակարգը կօգտագործի այդ օրինաչափությունները նոր տվյալների հանդիպելիս: Նոր տվյալների ներկայացումից հետո «հին» կամ պատմական տվյալների վրա հիմնված օրինաչափությունները կիրառվում են ընթացիկ որոշում կայացնելու համար:

Կարծում եմ, դուք կարող եք կռահել, թե ուր է սա գնում: Եթե ​​մարդիկ, ովքեր որոշումներ են կայացնում, իրենց մեջ ներդնում են անբարենպաստ կողմնակալություն, ապա հավանականությունն այն է, որ տվյալներն արտացոլում են դա նուրբ, բայց նշանակալի ձևերով: Մեքենայի ուսուցումը կամ խորը ուսուցման հաշվողական օրինաչափությունների համընկնումը պարզապես կփորձի համապատասխանաբար մաթեմատիկորեն նմանակել տվյալները: Առողջ դատողության կամ AI-ի կողմից ստեղծված մոդելավորման այլ զգալի ասպեկտներ ինքնին չկա:

Ավելին, AI մշակողները նույնպես կարող են չհասկանալ, թե ինչ է կատարվում: ML/DL-ի գաղտնի մաթեմատիկան կարող է դժվարացնել այժմ թաքնված կողմնակալությունների բացահայտումը: Դուք իրավամբ հույս կունենաք և ակնկալում եք, որ AI մշակողները կփորձարկեն պոտենցիալ թաղված կողմնակալության համար, թեև դա ավելի բարդ է, քան կարող է թվալ: Կա մեծ հավանականություն, որ նույնիսկ համեմատաբար լայնածավալ փորձարկումների դեպքում, ML/DL-ի օրինաչափություններին համապատասխանող մոդելներում դեռևս առկա կլինեն կողմնակալություններ:

Դուք կարող եք ինչ-որ չափով օգտագործել աղբի մեջ աղբի դուրս գալու հայտնի կամ տխրահռչակ ասացվածքը: Բանն այն է, որ սա ավելի շատ նման է կողմնակալություններին, որոնք նենգորեն ներարկվում են որպես AI-ի մեջ ընկղմված կողմնակալություններ: AI-ի որոշումների կայացման ալգորիթմը (ADM) աքսիոմատիկորեն ծանրաբեռնված է անհավասարություններով:

Ոչ լավ.

Այս ամենը ունի զգալի AI-ի էթիկայի հետևանքներ և առաջարկում է հարմար պատուհան դեպի քաղված դասեր (նույնիսկ մինչ բոլոր դասերը տեղի կունենան), երբ խոսքը վերաբերում է AI-ի օրենսդրական հաստատման փորձին:

Բացի արհեստական ​​ինտելեկտի էթիկայի կանոնների կիրառումից, ընդհանուր առմամբ, կա համապատասխան հարց, թե արդյոք մենք պետք է ունենանք AI-ի տարբեր կիրառություններ կարգավորող օրենքներ: Նոր օրենքներ են մշակվում դաշնային, նահանգային և տեղական մակարդակներում, որոնք վերաբերում են արհեստական ​​ինտելեկտի մշակման տիրույթին և բնույթին: Նման օրենքներ մշակելու և ընդունելու ջանքերը աստիճանաբար են ընթանում: AI-ի էթիկան ծառայում է որպես նվազագույնը հաշվի առնելով, և գրեթե անկասկած որոշ չափով ուղղակիորեն կներառվի այդ նոր օրենքներում:

Տեղյակ եղեք, որ ոմանք համառորեն պնդում են, որ մեզ պետք չեն նոր օրենքներ, որոնք ընդգրկում են արհեստական ​​ինտելեկտը, և որ մեր գործող օրենքները բավարար են: Նրանք նախազգուշացնում են, որ եթե մենք հաստատենք AI-ի այս օրենքներից մի քանիսը, մենք կսպանենք ոսկե սագին՝ ճնշելով արհեստական ​​ինտելեկտի առաջընթացը, որը հսկայական հասարակական առավելություններ է տալիս:

Նախորդ սյունակներում ես անդրադարձել եմ արհեստական ​​ինտելեկտը կարգավորող օրենքներ ստեղծելու և ընդունելու ազգային և միջազգային տարբեր ջանքերին, տես. հղումն այստեղ, օրինակ. Ես նաև անդրադարձել եմ արհեստական ​​ինտելեկտի էթիկայի տարբեր սկզբունքներին և ուղեցույցներին, որոնք տարբեր ազգեր հայտնաբերել և ընդունել են, ներառյալ, օրինակ, Միավորված ազգերի կազմակերպության ջանքերը, ինչպիսին է ՅՈՒՆԵՍԿՕ-ի Արհեստական ​​ինտելեկտի էթիկայի փաթեթը, որը ընդունել է մոտ 200 երկիր, տես. հղումն այստեղ.

Ահա AI համակարգերի վերաբերյալ Էթիկական AI չափանիշների կամ բնութագրերի օգտակար հիմնական ցուցակը, որը ես նախկինում մանրամասն ուսումնասիրել եմ.

  • Թափանցիկություն
  • Արդարություն և արդարություն
  • Ոչ չարամտություն
  • պատասխանատվություն
  • Գաղտնիության
  • Բարեգործություն
  • Ազատություն և ինքնավարություն
  • Վստահեք
  • Կայունություն
  • Արժանապատվություն
  • Համերաշխություն

Արհեստական ​​ինտելեկտի էթիկայի այդ սկզբունքները լրջորեն պետք է օգտագործվեն արհեստական ​​ինտելեկտի մշակողների կողմից, ինչպես նաև նրանք, ովքեր ղեկավարում են AI-ի զարգացման ջանքերը, և նույնիսկ նրանք, որոնք, ի վերջո, կիրառում և պահպանում են AI համակարգերը:

Բոլոր շահագրգիռ կողմերը AI-ի զարգացման և օգտագործման ողջ ցիկլի ընթացքում համարվում են Էթիկական AI-ի հաստատված նորմերին պահպանելու շրջանակում: Սա կարևոր կետ է, քանի որ սովորական ենթադրությունն այն է, որ «միայն կոդավորողները» կամ նրանք, ովքեր ծրագրավորում են AI-ն, ենթակա են հավատարիմ մնալու AI-ի էթիկայի հասկացություններին: Ինչպես նախկինում ընդգծվել է այստեղ, AI մշակելու և մշակելու համար անհրաժեշտ է գյուղ, և որի համար ամբողջ գյուղը պետք է տիրապետի և ենթարկվի AI-ի էթիկայի կանոններին:

Ես նաև վերջերս ուսումնասիրեցի AI իրավունքների օրինագիծ որը ԱՄՆ կառավարության պաշտոնական փաստաթղթի պաշտոնական վերնագիրն է` «Blueprint for an AI Bill of Rights. ) OSTP-ն դաշնային կազմակերպություն է, որը ծառայում է Ամերիկայի նախագահին և ԱՄՆ Գործադիր գրասենյակին ազգային նշանակության տարբեր տեխնոլոգիական, գիտական ​​և ինժեներական ասպեկտների վերաբերյալ խորհրդատվություն տալու համար: Այդ առումով կարելի է ասել, որ այս AI-ի իրավունքների օրինագիծը փաստաթուղթ է, որը հաստատվել և հաստատվել է ԱՄՆ գործող Սպիտակ տան կողմից:

AI-ի իրավունքների օրինագծում կան հինգ հիմնական կատեգորիաներ.

  • Անվտանգ և արդյունավետ համակարգեր
  • Ալգորիթմական խտրականության պաշտպանություն
  • Տվյալների գաղտնիություն
  • Ծանուցում և բացատրություն
  • Մարդկային այլընտրանքներ, նկատառում և հետընթաց

Ես ուշադիր վերանայել եմ այդ կանոնները, տես հղումն այստեղ.

Այժմ, երբ ես օգտակար հիմք եմ դրել այս առնչվող AI-ի էթիկայի և AI-ի իրավունքի թեմաների վրա, մենք պատրաստ ենք անցնել ընթացող անհանգստացնող հարցի ուսումնասիրության բուռն թեմային: վստահության զանգվածային անկում և դրա ազդեցությունը AI վստահության մակարդակի վրա:

Ստացեք ավելի մեծ նավ՝ արհեստական ​​ինտելեկտի նկատմամբ վստահություն ստեղծելու համար

Եկեք վերանայենք այս թեմայի վերաբերյալ իմ նախկինում առաջադրված հարցերը.

  • Ի՞նչ կարող ենք անել համատարած հասարակության հետ վստահության զանգվածային անկում երբ խոսքը AI-ի մասին է:
  • Արդյո՞ք AI-ն դատապարտված է նկուղային մակարդակի ամենաբարձր վստահությանը՝ անկախ նրանից, թե ինչ է անում AI-ի էթիկան կամ AI-ի օրենքը:
  • Արդյո՞ք արհեստական ​​ինտելեկտի ոլորտում գտնվողները պետք է ձեռնոց նետեն AI-ի վստահությանը:

Ես կգնամ լավատեսական ճանապարհով և կպնդեմ, որ մենք կարող ենք ինչ-որ բան անել այս հարցում:

Նաև խստորեն կասեմ, որ չպետք է ձեռնոց նետել։ Փոխարենը գլխավորն այն է, որ ավելի ջանասիրաբար աշխատենք, գումարած ավելի խելացի՝ լուծելու AI-ի նկատմամբ վստահության հարցը: Ավելի խելացի լինելու հատվածը ենթադրում է գիտակցել, որ մենք վստահության հսկայական անկման մեջ ենք և սթափ կերպով հաշվի առնել այդ մակրոսկոպիկ երևացող գործոնը: Այո, այն ամենի համար, ինչ մենք անում ենք AI-ի էթիկայի և արհեստական ​​ինտելեկտի մասին օրենքը ընդունելու և աջակցելու բուռն ջանքերի ընթացքում, զգույշ եղեք և հարմարվեք վստահության անկման ալիքին համապատասխան:

Նախքան լավատեսական կամ ժպտացող դեմքի ընտրությանն անցնելը, ես կարծում եմ, որ արդարացի է առաջարկել հակադիր տեսակետը: Լավ, ահա դու գնա: Մենք ոչինչ չենք կարող անել վստահության զանգվածային անկման դեմ: Անիմաստ է փորձել թեքվել հողմաղացների մոտ, ինչպես ասում են: Այսպիսով, պարզապես շարունակեք պայքարել պայքարի դեմ, և ինչ էլ որ պատահի ալիքի հետ, այդպես լինի:

Այդ տխուր դեմքի սցենարում դուք կարող եք ենթադրել, որ դա ուսերի թոթվում է և կապիտուլյացիա, որ ալիքը մակընթացություն է: Մի օր, հուսանք, վստահության զանգվածային անկումը կթուլանա և կդառնա վստահության անկման սովորական ձև: Այնուհետև, մի փոքր բախտի դեպքում, վստահության անկումը դուրս կգա, և վստահությունը կվերադառնա: Մենք կարող ենք նույնիսկ ավարտվել վստահության աճող զգացումով: Ասես վստահության բում:

Ես կդասակարգեմ ձեր ընտրությունները հետևյալ հինգ տարբերակների մեջ.

1) Անտեղյակները. Սրանք այն փաստաբաններն են AI էթիկայի և AI օրենքի ասպարեզում, որոնք չգիտեն, որ կա վստահության զանգվածային անկում. Նրանք նույնիսկ չգիտեն, որ չգիտեն։

2) Գիտեք, բայց հոգ չէ. Սրանք արհեստական ​​ինտելեկտի էթիկայի և արհեստական ​​ինտելեկտի իրավունքի այն փաստաբաններն են, որոնք գիտեն վստահության զանգվածային անկման մասին, բայց թուլացնում են այն: Դուրս եկեք այն և ոչ մի նոր բան մի արեք:

3) Իմանալ և հաղթահարել դրա հետ. Սրանք արհեստական ​​ինտելեկտի էթիկայի և արհեստական ​​ինտելեկտի իրավունքի այն փաստաբաններն են, ովքեր գիտեն վստահության զանգվածային անկման մասին և որոշել են հաղթահարել դրա հետ: Նրանք կարգավորում են իրենց հաղորդագրությունները. նրանք հարմարեցնում են իրենց մոտեցումը։ Երբեմն դա ներառում է վստահության անկումը միախառնել իրենց ռազմավարություններին և AI-ի նկատմամբ վստահության հետագա զարգացմանն ու խուսափողական Պատասխանատու AI-ին փնտրելուն ուղղված ջանքերին:

4) Իմանալը և ակամա վատթարացնում է իրավիճակը. Սրանք արհեստական ​​ինտելեկտի էթիկայի և արհեստական ​​ինտելեկտի իրավունքի այն փաստաբաններն են, ովքեր գիտեն վստահության հսկայական անկման մասին, գումարած, նրանք որոշել են ինչ-որ բան անել դրա դեմ, բայց նրանք ի վերջո կրակում են սեփական ոտքի վրա: Անպատշաճ կերպով արձագանքելով հասարակության տենդենցին՝ նրանք սխալմամբ վատթարացնում են պատասխանատու ինտելեկտը և իջնում ​​են ինտելեկտի նկատմամբ վստահությունը նույնիսկ ավելի ցածր խորություններում:

5) այլ (կբացատրվի, մի պահ)

Այդ հինգ տարբերակներից ո՞րում եք դուք:

Ես միտումնավոր տվեցի հինգերորդ տարբերակը ձեզնից նրանց համար, ովքեր կամ չեն հավանում մյուս չորսից որևէ մեկը, կամ որ դուք անկեղծորեն հավատում եք, որ կան այլ հնարավորություններ, և որ թվարկվածներից ոչ մեկը համարժեքորեն չի բնութագրում ձեր դիրքորոշումը:

Պարտադիր չէ, որ դուք կոշիկի մեջ ընկնեք ընտրության մեջ: Ես պարզապես առաջարկում եմ ընտրանքներ՝ վաստակաշատ թեմայի շուրջ կշռադատված քննարկում առաջացնելու նպատակով: Մենք պետք է խոսենք դրա մասին վստահության զանգվածային անկում, Ես հավատում եմ. «Պատասխանատու AI» և «Վստահելի AI» ջանքերի վերաբերյալ դեռևս շատ խորը վերլուծություն չի կատարվել, քանի որ դա վերաբերում է հասարակության վստահության զանգվածային անկմանը:

Ժամանակն է բացել այդ դռները (լավ, դա միգուցե չափազանց է այս բառախաղերի և բառախաղերի համար):

Եթե ​​ձեզ հետաքրքրում է, թե ինչից կարող է բաղկացած լինել հինգերորդ տարբերակը, ահա մեկը, որը կարող է ձեզ հետաքրքրել:

AI բացառիկություն.

AI ոլորտում կա մի կոնտինգենտ, որը կարծում է, որ AI-ն բացառություն է իրերի սովորական կանոններից: Արհեստական ​​ինտելեկտի բացառիկության այս կողմնակիցները պնդում են, որ դուք չեք կարող կանոնավոր կերպով կիրառել այլ հասարակական այլանդակություններ AI-ի նկատմամբ: AI-ն չի ազդում, քանի որ դա մեծ բացառություն է:

Այդ ինչ-որ չափով դոգմատիկ տեսանկյունից, մակընթացության և արհեստական ​​ինտելեկտի վստահության իմ անալոգիան՝ որպես նավակ, որը թռչում է վեր ու վար, կշպրտվի պատուհանից՝ որպես նման նկատառում: AI վստահությունն ավելի մեծ է, քան ալիքը: Անկախ նրանից, թե ինչ է տեղի ունենում վստահության զանգվածային անկման ժամանակ, AI վստահությունը գնալու է ուր էլ որ գնա: Եթե ​​ալիքը բարձրանա, AI վստահությունը կարող է բարձրանալ կամ իջնել: Եթե ​​ալիքը իջնի, AI վստահությունը կարող է բարձրանալ կամ իջնել: Անկախ ալիքից, AI վստահությունն ունի իր ճակատագիրը, իր ճակատագիրը, իր ուղին:

Ես քեզ համար ևս մեկ շրջադարձ ունեմ:

Ոմանք կարող են պնդել, որ AI-ն նյութական ազդեցություն կունենա վստահության զանգվածային անկում.

Տեսեք, այս քննարկման մնացած մասը, իբր, հետընթաց է բերել: Այնպես չէ, որ վստահության զանգվածային անկումը ազդելու է AI վստահության վրա, փոխարենը ճիշտ է հակառակը: Կախված նրանից, թե ինչ ենք մենք անում AI-ի հետ կապված, վստահության անկումը հնարավոր է խորանա կամ վերականգնվի: AI վստահությունը կորոշի ալիքի ճակատագիրը: Կարծում եմ, դուք կարող եք պնդել, որ AI-ն այնքան հզոր է որպես պոտենցիալ ուժ, որ նման է արևին, լուսնին և երկրին՝ որոշելու, թե ինչպես է մակընթացությունը գնալու:

Եթե ​​մենք հասկանանք AI-ի վստահության ասպեկտները, և եթե մարդիկ վստահեն AI-ին, միգուցե դա կշրջի վստահության անկումը: Մարդիկ կփոխեն իրենց վստահությունը իրենց կյանքի բոլոր մյուս առումներով: Նրանք կսկսեն մեծացնել իրենց վստահությունը կառավարության, բիզնեսների, առաջնորդների և այլնի նկատմամբ՝ ամենուր վստահելի AI ունենալու պատճառով:

Խաբեբա՞

Գուցե, գուցե ոչ:

Առանց ձեզ մռայլ տրամադրության մեջ գցելու՝ գիտակցեք, որ AI վստահության հակառակ տեսակետը նույնպես կարող է առաջանալ: Այդ օգտագործման դեպքում մենք բոլորս ընկնում ենք AI-ի նկատմամբ վստահության բացարձակ պակասի մեջ: Մենք այնքան անվստահ ենք դառնում, որ անվստահությունը թափվում է մեր առանց այն էլ մեծ վստահության անկման մեջ: Իր հերթին, դա ստիպում է վստահության զանգվածային անկումը դառնալ գերհսկա մեգա-զանգվածային վստահության անկումը, շատ անգամ ավելի վատ, քան մենք երբևէ կարող էինք պատկերացնել:

Համատեղեք այս գաղափարը AI-ի` որպես էքզիստենցիալ ռիսկի խմբավորված հասկացության մեջ: Եթե ​​AI-ն սկսի թվալ, թե ծայրահեղ ռիսկն իրականանում է, այն է, որ արհեստական ​​ինտելեկտը, որը պատրաստվում է տիրել մարդկությանը և կա՛մ ստրկացնել մեզ, կա՛մ ջնջել բոլորիս, դուք, անշուշտ, ամուր փաստարկ կունենաք վստահության զանգվածային անկման համար: մի գեղեցիկ վայրէջք պարույր:

Ես ստանում եմ դա:

Ինչևէ, հուսանք իրերի ավելի ուրախ կողմի վրա, չէ՞:

Եզրափակում

Հիմա, երբ դուք գիտեք այդ մասին վստահության զանգվածային անկում, ի՞նչ կարող եք անել AI վստահության հետ կապված:

Նախ, ձեզնից նրանց համար, ովքեր տոգորված են AI-ի էթիկայի և AI օրենքի ոլորտում, համոզվեք, որ հաշվարկեք ձեր Պատասխանատու AI և Truամուր AI հետապնդումներ սոցիալական համատեքստի միջոցով, որոնք կապված են վստահության անկման հետ: Դուք պետք է զգույշ լինեք վհատված զգալու համար, որ արհեստական ​​ինտելեկտի նկատմամբ վստահությունը խթանելու ձեր սեփական ջանքերը կարծես թե խանգարված են կամ լիովին հաջողակ չեն այն հարցում, թե ինչ էիք սպասում: Կարող է լինել, որ ձեր ջանքերն առնվազն օգնում են, մինչդեռ, անգիտակցաբար, վստահության ջրահեռացման խողովակը խլում է ձեր խիզախ գործունեությունը լուռ և ցավալիորեն վնասակար կերպով: Մի հուսահատվեք։ Կարող էր լինել, որ եթե վստահության անկումը տեղի չունենար, դուք կտեսնեիք հսկայական առաջընթաց և անսովոր գովելի արդյունքներ:

Երկրորդ, մենք պետք է ավելի շատ վերլուծություններ կատարենք այն մասին, թե ինչպես չափել վստահության անկումը և, ինչպես նաև, ինչպես չափել AI-ի նկատմամբ վստահության վերելքներն ու անկումները: Չունենալով վստահելի և լավ ընդունված չափումներ, մենք կուրորեն լողում ենք օվկիանոսում, որտեղ չգիտենք, թե քանի բան ենք կորցրել կամ ձեռք բերել:

Երրորդ, հաշվի առեք ուղիներ փոխանցելու, որ AI-ի նկատմամբ վստահությունը ձևավորվում է վստահության զանգվածային անկման հետևանքով: Այս մասին քչերը գիտեն: AI ինսայդերները պետք է խորը մտածեն թեմայի շուրջ: Հասարակությունը պետք է արագացնել նաև: Երկու հաղորդագրություն կա փոխանցելու. Մեկն այն է, որ կա վստահության զանգվածային անկում: Երկրորդ, AI-ի նկատմամբ վստահությունը ենթակա է վստահության անկման տարօրինակություններին, և մենք պետք է բացահայտորեն հաշվի առնենք դա:

Որպես վերջնական նկատողություն, առայժմ պատկերացնում եմ, որ գիտեք հայտնի անեկդոտը ձկան ամանի մասին։

Ահա թե ինչպես է այն ընթանում.

Երկու ձուկ լողում են ետ ու առաջ ձկան ամանի մեջ։ Շուրջն ու շուրջը, նրանք գնում են: Ի վերջո, ձկներից մեկը շրջվում է մյուսի կողմը և ասում, որ հոգնել է ջրի մեջ լինելուց: Մյուս ձուկը մտածում է այս մեկնաբանության մասին: Մի քանի ծանր ակնթարթ անց խելացի ձուկը հարցաքննությամբ պատասխանում է՝ ի՞նչ է ջուրը:

Դա մի քիչ հին կատակ է:

Ենթադրվում է, որ շեշտը դրվում է այն բանի վրա, որ այն, ինչ շրջապատում է ձեզ, կարող է հեշտությամբ ճանաչելի չլինել: Դուք վարժվում եք դրան։ Դա հենց այնտեղ է: Դուք դա չեք նկատում, քանի որ այն ամենուր է և աննկատելի է իր ներկայությամբ (մի կողմ նշեմ, որ որոշ ցինիկների դուր չի գալիս կատակը, քանի որ նրանք պնդում են, որ իրական ձկները գիտեն, որ իսկապես ջրի մեջ են և գիտակցում են «ճանաչողական որպես այդպիսին, ներառյալ ջրից օդ ցատկելու հնարավորությունը և այլն):

Որպես ձկան հարմար հեքիաթ կամ առակ, մենք կարող ենք օգտագործել այս հարմար այլաբանությունը՝ նշելու, որ մենք կարող ենք չհասկանալ, որ վստահության հսկայական անկման մեջ ենք: Այն ամենուր է մեր շուրջը, և մենք արտաքինից զգում ենք դա, բայց մենք գիտակցաբար չենք գիտակցում, որ այն այստեղ է:

Ժամանակն է հանել կույրերը.

Խորը շունչ քաշեք և շունչ քաշեք այն փաստով, որ մեր հսկայական վստահության անկումը գոյություն ունի: Իր հերթին, ձեզանից նրանց համար, ովքեր օրեցօր մեծ ջանքեր են գործադրում զարգացնելու պատասխանատու AI-ն և վստահություն ձեռք բերել AI-ի նկատմամբ, ձեր աչքերը լայն բաց պահեք, թե ինչպես է վստահության անկումը միջամտում ձեր քաջարի ջանքերին:

Ինչպես հայտնի է Շեքսպիրը. «Մենք պետք է վերցնենք հոսանքը, երբ այն ծառայում է, կամ կորցնենք մեր ձեռնարկումները»:

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/12/04/massively-brewing-trust-recession-aims-to-erode-responsible-ai-says-ai-ethics-and-ai- օրենք/