Արհեստական ​​ինտելեկտի փորձագետները ստորագրել են փաստաթուղթ, որը համեմատում է «AI-ից անհետացման» վտանգը համաճարակների, միջուկային պատերազմի հետ

Արհեստական ​​ինտելեկտի (AI) տասնյակ փորձագետներ, այդ թվում՝ OpenAI-ի, Google DeepMind-ի և Anthropic-ի գործադիր տնօրենները, վերջերս ստորագրել են բաց հայտարարություն, որը հրապարակվել է AI անվտանգության կենտրոնի (CAIS) կողմից: 

Հայտարարությունը պարունակում է մեկ նախադասություն.

«AI-ի կողմից անհետացման վտանգի մեղմացումը պետք է լինի համաշխարհային առաջնահերթություն հասարակական մասշտաբի այլ ռիսկերի կողքին, ինչպիսիք են համաճարակները և միջուկային պատերազմը»:

Փաստաթուղթը ստորագրողների թվում են արհեստական ​​ինտելեկտի աստղերի իսկական «ով ով է», այդ թվում՝ AI-ի «կնքահայր» Ջեֆրի Հինթոնը. Կալիֆոռնիայի համալսարան, Բերքլիի Ստյուարտ Ռասել; և Մասաչուսեթսի տեխնոլոգիական ինստիտուտի Լեքս Ֆրիդմանը: Երաժիշտ Գրայմսը նույնպես ստորագրող է, որը նշված է «այլ նշանավոր գործիչներ» անվանակարգում:

Related: Երաժիշտ Գրայմսը պատրաստ է «50% հոնորարները բաժանել» արհեստական ​​ինտելեկտի միջոցով ստեղծված երաժշտությամբ

Թեև հայտարարությունը կարող է անվնաս թվալ երեսին, հիմքում ընկած հաղորդագրությունը որոշակիորեն հակասական է AI համայնքում:

Թվացյալ աճող թվով փորձագետներ կարծում են, որ ներկայիս տեխնոլոգիաները կարող են կամ անխուսափելիորեն հանգեցնել AI համակարգի առաջացմանը կամ զարգացմանը, որը կարող է էկզիստենցիալ վտանգ ներկայացնել մարդկային տեսակի համար:

Նրանց տեսակետներին, սակայն, հակադարձում է փորձագետների մի խումբ, որոնք ունեն տրամագծորեն հակառակ կարծիքներ: Meta-ի գլխավոր AI գիտնական Յան Լեկունը, օրինակ, բազմիցս նշել է, որ անպայման չի հավատում, որ արհեստական ​​ինտելեկտը կդառնա անվերահսկելի:

Նրա և մյուսների համար, ովքեր համաձայն չեն «վերացման» հռետորաբանությանը, ինչպես, օրինակ, Google Brain-ի համահիմնադիր և Baidu-ի նախկին գլխավոր գիտնական Էնդրյու Նգին, AI-ն խնդիրը չէ, այլ պատասխանը:

Փաստարկի մյուս կողմում փորձագետները, ինչպիսիք են Հինթոնը և Conjecture-ի գործադիր տնօրեն Քոնոր Լիհին, կարծում են, որ մարդկային մակարդակի AI-ն անխուսափելի է և, որպես այդպիսին, գործելու ժամանակն է:

Սակայն պարզ չէ, թե ինչ քայլերի են դիմում հայտարարությունը ստորագրողները։ Գրեթե բոլոր խոշոր AI ընկերության գործադիր տնօրենները և/կամ AI-ի ղեկավարները, ինչպես նաև հանրահայտ գիտնականներ ամբողջ ակադեմիայից, ստորագրածների թվում են, ինչը ակնհայտ է դարձնում, որ նպատակը այս պոտենցիալ վտանգավոր համակարգերի զարգացումը դադարեցնելը չէ:

Այս ամսվա սկզբին OpenAI-ի գործադիր տնօրեն Սեմ Ալթմանը, որը վերոնշյալ հայտարարության ստորագրողներից մեկն է, առաջին անգամ հայտնվեց Կոնգրեսի առջև Սենատի լսումների ժամանակ՝ քննարկելու AI կանոնակարգումը: Նրա ցուցմունքները վերնագրեր են դարձել այն բանից հետո, երբ նա ծախսել է դրա մեծ մասը՝ կոչ անելով օրենսդիրներին կարգավորել իր ոլորտը:

Altman's Worldcoin-ը, որը համատեղում է կրիպտոարժույթը և անձի ապացույցը, նույնպես վերջերս հայտնվել է լրատվամիջոցների շրջափուլից՝ C Series-ի 115 միլիոն դոլարի ֆինանսավորումից հետո՝ երեք փուլից հետո իր ընդհանուր ֆինանսավորումը հասցնելով 240 միլիոն դոլարի:

Աղբյուր՝ https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war