Արհեստական ինտելեկտի (AI) տասնյակ փորձագետներ, այդ թվում՝ OpenAI-ի, Google DeepMind-ի և Anthropic-ի գործադիր տնօրենները, վերջերս ստորագրել են բաց հայտարարություն, որը հրապարակվել է AI անվտանգության կենտրոնի (CAIS) կողմից:
Մենք պարզապես հայտարարություն ենք տարածել.
«AI-ի կողմից անհետացման վտանգի մեղմացումը պետք է լինի համաշխարհային առաջնահերթություն հասարակական մասշտաբի այլ ռիսկերի կողքին, ինչպիսիք են համաճարակները և միջուկային պատերազմը»:
Ստորագրողների թվում են Հինթոնը, Բենջիոն, Ալթմանը, Հասաբիսը, Սոնգը և այլն:https://t.co/N9f6hs4bpa
(1 / 6)
— Դեն Հենդրիքս (@DanHendrycks) Թող 30, 2023
Հայտարարությունը պարունակում է մեկ նախադասություն.
«AI-ի կողմից անհետացման վտանգի մեղմացումը պետք է լինի համաշխարհային առաջնահերթություն հասարակական մասշտաբի այլ ռիսկերի կողքին, ինչպիսիք են համաճարակները և միջուկային պատերազմը»:
Փաստաթուղթը ստորագրողների թվում են արհեստական ինտելեկտի աստղերի իսկական «ով ով է», այդ թվում՝ AI-ի «կնքահայր» Ջեֆրի Հինթոնը. Կալիֆոռնիայի համալսարան, Բերքլիի Ստյուարտ Ռասել; և Մասաչուսեթսի տեխնոլոգիական ինստիտուտի Լեքս Ֆրիդմանը: Երաժիշտ Գրայմսը նույնպես ստորագրող է, որը նշված է «այլ նշանավոր գործիչներ» անվանակարգում:
Related: Երաժիշտ Գրայմսը պատրաստ է «50% հոնորարները բաժանել» արհեստական ինտելեկտի միջոցով ստեղծված երաժշտությամբ
Թեև հայտարարությունը կարող է անվնաս թվալ երեսին, հիմքում ընկած հաղորդագրությունը որոշակիորեն հակասական է AI համայնքում:
Թվացյալ աճող թվով փորձագետներ կարծում են, որ ներկայիս տեխնոլոգիաները կարող են կամ անխուսափելիորեն հանգեցնել AI համակարգի առաջացմանը կամ զարգացմանը, որը կարող է էկզիստենցիալ վտանգ ներկայացնել մարդկային տեսակի համար:
Նրանց տեսակետներին, սակայն, հակադարձում է փորձագետների մի խումբ, որոնք ունեն տրամագծորեն հակառակ կարծիքներ: Meta-ի գլխավոր AI գիտնական Յան Լեկունը, օրինակ, բազմիցս նշել է, որ անպայման չի հավատում, որ արհեստական ինտելեկտը կդառնա անվերահսկելի:
Գերմարդկային արհեստական ինտելեկտը ոչ մի կերպ չի մոտենում էկզիստենցիալ ռիսկերի ցանկի առաջին հորիզոնականին:
Մեծ մասամբ այն պատճառով, որ այն դեռ գոյություն չունի:Քանի դեռ մենք չունենք հիմնական դիզայն նույնիսկ շների մակարդակի AI-ի համար (չխոսենք մարդկային մակարդակի համար), քննարկել, թե ինչպես դա անվտանգ դարձնել, վաղաժամ է: https://t.co/ClkZxfofV9
— Յան Լեկուն (@ylecun) Թող 30, 2023
Նրա և մյուսների համար, ովքեր համաձայն չեն «վերացման» հռետորաբանությանը, ինչպես, օրինակ, Google Brain-ի համահիմնադիր և Baidu-ի նախկին գլխավոր գիտնական Էնդրյու Նգին, AI-ն խնդիրը չէ, այլ պատասխանը:
Փաստարկի մյուս կողմում փորձագետները, ինչպիսիք են Հինթոնը և Conjecture-ի գործադիր տնօրեն Քոնոր Լիհին, կարծում են, որ մարդկային մակարդակի AI-ն անխուսափելի է և, որպես այդպիսին, գործելու ժամանակն է:
AI-ի բոլոր խոշոր լաբորատորիաների ղեկավարները ստորագրել են այս նամակը՝ բացահայտորեն ընդունելով AGI-ից անհետացման վտանգը:
Անհավանական քայլ առաջ, շնորհավորում եմ Դենին իր անհավատալի աշխատանքի համար, որը միավորում է այս ամենը և շնորհակալություն ենք հայտնում յուրաքանչյուր ստորագրողին՝ իրենց դերն ավելի լավ ապագայի համար: https://t.co/KDkqWvdJcH
— Քոնոր Լիհի (@NPCollapse) Թող 30, 2023
Սակայն պարզ չէ, թե ինչ քայլերի են դիմում հայտարարությունը ստորագրողները։ Գրեթե բոլոր խոշոր AI ընկերության գործադիր տնօրենները և/կամ AI-ի ղեկավարները, ինչպես նաև հանրահայտ գիտնականներ ամբողջ ակադեմիայից, ստորագրածների թվում են, ինչը ակնհայտ է դարձնում, որ նպատակը այս պոտենցիալ վտանգավոր համակարգերի զարգացումը դադարեցնելը չէ:
Այս ամսվա սկզբին OpenAI-ի գործադիր տնօրեն Սեմ Ալթմանը, որը վերոնշյալ հայտարարության ստորագրողներից մեկն է, առաջին անգամ հայտնվեց Կոնգրեսի առջև Սենատի լսումների ժամանակ՝ քննարկելու AI կանոնակարգումը: Նրա ցուցմունքները վերնագրեր են դարձել այն բանից հետո, երբ նա ծախսել է դրա մեծ մասը՝ կոչ անելով օրենսդիրներին կարգավորել իր ոլորտը:
Altman's Worldcoin-ը, որը համատեղում է կրիպտոարժույթը և անձի ապացույցը, նույնպես վերջերս հայտնվել է լրատվամիջոցների շրջափուլից՝ C Series-ի 115 միլիոն դոլարի ֆինանսավորումից հետո՝ երեք փուլից հետո իր ընդհանուր ֆինանսավորումը հասցնելով 240 միլիոն դոլարի:
Աղբյուր՝ https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war