The Cry Wolf Moment of AI Hype-ն օգտակար չէ

Թեև ես մարդկության ավարտի սցենարներն ուսումնասիրող մարդ եմ, կարծում եմ, որ «փորձագիտական ​​նամակը», որը առաջարկում է 6-ամսյա AI մորատորիում կամ ավելի վերջերս արված հայտարարությունը, որ AI-ի ռիսկը գտնվում է համաճարակի և միջուկային ռիսկի մակարդակում, երկուսն էլ չափազանցված են: Նույնիսկ ավելի կատաղի կարծիքը, որ մենք պետք է փակենք AI-ն, անպատասխանատու է: Ցանկացած անհանգստություն պետք է համաչափ լինի մեր առջև ծառացած ռիսկերին: Այս պահին մենք AI-ի անմիջական վտանգի տակ չենք:

Ներկայիս AI-ները ի վիճակի չեն տիրել հասարակությանը: Նրանք չունեն զգացմունքներ և արժանի չեն պաշտպանության այնպես, ինչպես մարդկային կյանքն է: Նրանք գերխելացի չեն և ոչ մի ընդհանուր առումով չեն գերազանցում մարդկանց: Իրականում նրանք ընդհանրապես չեն մտածում։ Հենց հիմա, եթե սնվում են առատ տվյալներ, AI-ները շատ լավ են կատարում կոնկրետ առաջադրանքներ, ինչպիսիք են հաշվարկը և կանխատեսումը: Դա անհանգստացնող չէ, դրանք առանձնահատկություններ են, որոնք ունեն այս համակարգերը նախագծով: AI-ների խոստումը ներառում է քաղցկեղի լուծում, արդյունաբերական արտադրության վերափոխում, ապագա սցենարների մոդելավորում և բնապահպանական մարտահրավերների կառավարում: Այսպես ասած, կան օրինական պատճառներ քննադատելու ներկայիս AI-ները ռեսուրսների օգտագործման, թափանցիկության, կողմնակալության, կիբերանվտանգության և զբաղվածության վրա դրա ապագա ազդեցության համար:

AI-ները հաշվողականորեն թանկ են, ինչը նշանակում է, որ դրանք սակավ, հանածո էներգիայի մեծ վատնում են: Սա պետք է անհապաղ լուծվի: Բայց դա էքզիստենցիալ խնդիր չէ, դա ռացիոնալ ռեսուրսների օգտագործման խնդիր է։ Այն փաստը, որ AI-ները, որոնք հիմնվում են տվյալների մեծ և անարդյունավետ մոդելների վրա, չափազանց թանկ են դառնում ակադեմիայի կամ կառավարության կողմից հետևելու և ուսումնասիրելու համար, իրական խնդիր է: Բայց դա անխուսափելիորեն շտկելի է: Էլիտար ակադեմիական հաստատությունների կամ կառավարությունների կոնսորցիումները կարող են միավորվել և կիսել հաշվողական ռեսուրսները այնպես, ինչպես արել են գերհամակարգիչների համար:

Լեզուների խոշոր մոդելները (LLM) արհեստական ​​ինտելեկտի մոդելներ են, որոնք կարող են բնական լեզվով տեքստեր ստեղծել մեծ քանակությամբ տվյալներից: Դրա խնդիրն այն է, որ այս տեքստերը ուղղակիորեն բխում են այլ մարդկանց ազնիվ մտավոր ներդրումներից: Դրանք իրականում գողացված են։ Generative AI-ն, մասնավորապես, վերամիավորում է ինչպես սպառողների, այնպես էլ կազմակերպչական տվյալները, ինչպես նաև ստեղծագործական բովանդակությունը՝ հեղինակային իրավունքի կոպիտ խախտմամբ: Սա լուրջ է, բայց ոչ էկզիստենցիալ, և ավելին, ԵՄ-ն, Հոլիվուդի լոբբիստները և «մեծ հնգյակը» գրահրատարակիչները արդեն գործի վրա են: Սպասեք, որ սա կդանդաղեցնի AI-ի հզորությունը: Ընթացիկ տեմպերով, AI-ները կսպառվեն ուսուցման լավ տվյալներից շատ ավելի շուտ, քան այն մոտենալով զգայունությանը:

Ալգորիթմները, որոնք արդեն օգտագործվում են մեր հարկերը հաշվարկելու, մեր առցանց հոսքերը ընտրելու կամ մարդկանց բանտարկելու համար, ունեն թափանցիկության ապշեցուցիչ պակաս: Այնուամենայնիվ, դա այդպես է եղել տարիներ շարունակ, և ոչ մի կապ չունի AI-ի վերջին զարգացումների հետ: AI-ի կողմնակալությունը հատկություն է և ոչ թե վրիպակ: Կարծրատիպավորումը, ըստ էության, հիմնական մոտեցումն է, որի միջոցով աշխատում են նման մոդելները: Բացառությամբ, որ նախապաշարմունքը թաքնված է մեքենայական բանականության անթափանց շերտերում, որոնք անխուսափելի են մարդկանց, փորձագետների կամ ոչ մասնագետների համար: Այն, ինչ մենք պետք է կասկածի տակ դնենք նման համակարգեր մշակողների խելամտությունը, այլ ոչ թե նրանց ստեղծած համակարգի հնարավորությունները, ինչը տրված է: Համակարգերը հազվադեպ են ավելի լավը լինելու, քան այն կառուցողների կամ վարողների իմաստությունը կամ մտադրությունները:

AI ուսուցման տվյալները արտացոլում են հասարակության մեջ առկա կողմնակալությունները, որոնցից հավաքվել են այդ տվյալները: Վատ մարզումների տվյալների կրկնակի օգտագործումը մտահոգիչ պրակտիկա է, որն արդեն աղտոտում է AI մոդելները: Ընթացիկ AI մոտեցումները պարզապես ուժեղացնում են կողմնակալությունը՝ արագ արդյունքի հասնելու համար: Սա, իհարկե, մեր ուզածի հակառակն է։ Այն, ինչ մենք ուզում ենք անել, տեխնոլոգիան օգտագործելն է՝ պաշտպանելու մարդկային սխալը: Մեքենայի սխալի մասին անհանգստանալը մարդկային բանականության անիմաստ օգտագործում է:

Չնայած «նյարդային ցանցի» փոխաբերությանը, ներկայիս AI-ները երևակայության որևէ մասով ուղեղի նման չեն: Արհեստական ​​ինտելեկտի ներկայիս համակարգերը չեն կարող անալոգիայով տրամաբանել, ինչպես դա անում են մարդիկ: Սա լավ է. Հնարավոր է, որ մենք իրականում չցանկանանք արհեստական ​​ինտելեկտի այնպիսի դասավորվածություն, որը մոլեռանդները պաշտպանում են և փորձում են ընդօրինակել: Մեքենաները պետք է տարբերվեն մարդկանցից: Այդպես մենք կարող ենք առավելագույնի հասցնել միմյանց ուժեղ կողմերը: Եվ ինչպես կարող ենք մեքենաները պահել տարբեր և իրարից տարբեր: Մեքենաները չպետք է ունենան որևէ շահագրգռվածություն:

AI-ն ավելի ու ավելի է ներկայացնում կիբերանվտանգության զգալի սպառնալիք՝ որպես ակտիվ հանցագործների և թշնամական պետությունների համար: Բայց կիբերանվտանգությունը հասուն արդյունաբերություն է, որտեղ կան բազմաթիվ փորձագետներ, որոնք լավ հագեցած են մարտահրավերը հաղթահարելու համար: Կիբերանվտանգության վախերի պատճառով AI-ն անջատելու պատճառ չկա:

Արհեստական ​​ինտելեկտի պատճառով զբաղվածության խափանումը տարիներ շարունակ քաղաքականության խնդիր է եղել՝ նախ ռոբոտների, այժմ՝ ծրագրային ապահովման վրա հիմնված AI համակարգերի հետ կապված: Դա նշանակում է, որ կառավարությունները պատրաստ կլինեն դրանով զբաղվել: MIT Work of the Future-ի ուսումնասիրությունը պարզել է, որ ռոբոտների պատճառով գործազրկության մասին մտահոգությունը գերագնահատված է: Մարդիկ միշտ աշխատելու ուղիներ են գտել և դա կանեն նաև ապագայում: Արդյո՞ք արտադրությունը կվերափոխվի AI-ի միջոցով: Դա արդեն տեղի է ունենում, բայց բավականին վերահսկվող ձևով։

Ժամանակ առ ժամանակ արհեստական ​​ինտելեկտը տառապում է ընթացիկ ֆունկցիոնալության կամ ապագա շրջանակի վերաբերյալ գերագոյն խոստումներից: AI-ի առաջին ձմեռները սկսվեցին 1974-1980 թվականներին, երբ ԱՄՆ կառավարությունը դադարեցրեց իր ֆինանսավորումը: Երկրորդը 1987-1993 թվականներին էր, քանի որ ծախսերն աճեցին, և AI-ն չկարողացավ կատարել իր բարձր խոստումները:

Սպասելով նոր պարադիգմների ժամանմանը, 2025-2030 թվականներին մենք, հավանաբար, կմտնենք երրորդ AI ձմեռ: Համենայն դեպս, AI-ի շոգ ամառվա համեմատ մեզ խոստանում են։ Պատճառն այն է, որ, չնայած աղմուկին, վերը նշված բոլոր պատճառներով, մեծ լեզվական մոդելները պատրաստվում են հասնել իրենց առավելագույն օգտակարությանը և, ի վերջո, պետք է փոխարինվեն հաշվողականորեն ավելի էլեգանտ մոտեցումներով, որոնք ավելի թափանցիկ են:

Նման թեկնածուներից մեկը հիպերծավալային հաշվարկն է, որը մեքենաներին կստիպի ավելի արդյունավետ տրամաբանել, քանի որ դրանք մեքենաներին տալիս են իմաստային ըմբռնում, իրական աշխարհի տեղեկատվության հետևում իմաստը և համատեքստը մշակելու կարողություն: Այս պահին արհեստական ​​ինտելեկտի համակարգերը չեն հասկանում բառերի և արտահայտությունների միջև փոխհարաբերությունները, նրանք պարզապես լավ են գուշակում: Դա անբավարար է: Մեզ ի վերջո անհրաժեշտ կլինի մարմնավորված AI, քանի որ մտածողությունը կապված է տարածության ընկալման հետ: Դա միանշանակ այդպես է արտադրության մեջ, որը շատ ֆիզիկական խաղ է: Մեզ անհրաժեշտ կլինի նաև AI, որն ունակ է մարդու հիշողության առանձնահատկություններին, ինչպիսիք են առաջնահերթությունները՝ հիմնվելով որոշ տեղեկությունների առաջնահերթության վրա և հիմք ընդունելով այլ տեղեկություններ: Մոռանալը գործիք է, որը մարդիկ օգտագործում են վերացական մտածողության, հնացած կազմակերպչական գործելակերպից անցնելու, որոշումներ կայացնելու և պահի մեջ մնալու համար և պարզապես թերություն չէ: Ոչ մի մեքենա դեռ չի կարող դա շատ լավ անել:

Այդ ընթացքում մենք պետք է կարգավորենք, բայց ոչ այս վայրկյանին։ Եվ երբ մենք կարգավորում ենք, ավելի լավ է դա լավ անենք։ AI-ի վատ կարգավորումը, ամենայն հավանականությամբ, կվատթարացնի իրավիճակը: Կարգավորողներին այս մարտահրավերին արթնացնելը կարող է օգտակար լինել, բայց ես վստահ չեմ, որ կարգավորիչների ներկայիս սերունդը պատրաստ է այնպիսի լայնածավալ փոփոխությունների, որոնք անհրաժեշտ կլինեն դա լավ անելու համար: Դա կհանգեցնի հզոր ընկերությունների (հնարավոր է, ցուցակված բոլոր ընկերությունների) կրճատմանը, կառավարման ոլորտում AI-ի կիրառման սահմանափակմանը և կնշանակի հսկայական փոփոխություններ սպառողական շուկաների ներկայիս աշխատանքի մեջ: Ըստ էության, մենք պետք է վերակառուցենք հասարակությունը: Դա մեզ կհանգեցնի ապաաճի մի քանի տասնամյակ ավելի շուտ, քան մենք կարող էինք ցանկանալ: Արհեստական ​​ինտելեկտի շուրջ թափանցիկության մարտահրավերը կարող է ավելի ահավոր լինել, քան վերահսկման փոփոխականները, որոնց մասին բոլորն այնքան անհանգստացած են թվում, և իհարկե, որ դրանք կապ չունեն:

Ավելին, մենք չենք կարող հավասարապես անհանգստանալ ամեն անգամ, երբ հասնում է AI-ի նշաձողին: Մենք պետք է խնայենք մեր էներգիան կասկադային ռիսկի իսկապես մեծ պահերի համար: Նրանք կգան, և արդարության համար մենք պատրաստ չենք։ Իմ պատկերացրած ապագա սցենարները (տես «Վերացման սցենարներ 2075-ի համար») ներառում են տվյալների զանգվածային խախտումներ, որոնք ամիսներով փակ են պահում ամբողջ երկրները իրենց սեփական գործընթացներից: Ինձ նաև անհանգստացնում են AI-ները, որոնց օգնում են հանցավոր խմբերը կամ պետական ​​դերակատարները: Ամենից շատ ես անհանգստանում եմ արհեստական ​​ինտելեկտի, նանոտեխնոլոգիաների, սինթետիկ կենսաբանության և քվանտային տեխնոլոգիաների համակցությամբ՝ անհայտ կարողությունների գրեթե անտեսանելի քվազիօրգանական ինտելեկտի համար, որը, հնարավոր է, ընդամենը մի քանի տասնամյակ հեռավորության վրա, տեղի կունենա հենց այն ժամանակ, երբ աշխարհը սպառվելու է կլիմայի կասկադային հետևանքներով: փոփոխություն.

Ժամանակակից արհեստական ​​ինտելեկտի մոդելները դեռ այնքան էլ լավ չեն աշխատում, որպեսզի սպառնալիք հանդիսանան մարդկության համար: Նախքան դրանք անջատելու մասին մտածելը, մեզ ավելի լավ AI-ներ են պետք: Ավելին, մեզ պետք են ավելի իմաստուն մշակողներ, ավելի զգայուն քաղաքացիներ և ավելի լավ տեղեկացված քաղաքականություն մշակողներ: Մեզ նաև անհրաժեշտ է հայեցակարգ, թե ԻՆՉՊԵՍ կարգավորել AI-ն: Բայց դա կարելի է անել առանց որևէ բան դանդաղեցնելու: Դա ուսումնական ճամփորդություն կլինի բոլորի համար։ GPT 4-ի (2023) վերաբերյալ մորատորիումի նամակը գայլի լաց է, որը միայն թույլ նմանություն ունի այն կասկադային ռիսկերին, որոնց մարդկությունը կհանդիպի առաջիկա տասնամյակների ընթացքում: 2023 թվականին AI-ի ռիսկը համաճարակի և միջուկային ռիսկի մակարդակի վրա դնելը վաղաժամ է։ Կհասնե՞նք այնտեղ։ Թերեւս. Բայց լացող գայլը հետևանքներ ունի. Այն ծծում է թթվածինը իրական վախերի մասին առաջիկա բանավեճերից:

Աղբյուր՝ https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/