Ավստրալիայի կառավարությունը նախաձեռնել է անսպասելի ութշաբաթյա խորհրդակցությունների շրջան՝ նպատակ ունենալով որոշել, թե արդյոք «բարձր ռիսկային» արհեստական ինտելեկտի (AI) որոշ գործիքներ պետք է արգելվեն: Այս քայլը հաջորդում է այլ տարածաշրջանների, այդ թվում՝ Միացյալ Նահանգների, Եվրամիության և Չինաստանի կողմից ձեռնարկված նմանատիպ միջոցառումներին, որոնք ուղղված են AI արագ զարգացման հետ կապված ռիսկերին:
Հունիսի 1-ին Արդյունաբերության և գիտության նախարար Էդ Հուսիկը հրապարակեց երկու փաստաթուղթ հանրային վերանայման համար՝ մեկը «Ավստրալիայում անվտանգ և պատասխանատու ինտելեկտուալ արհեստական ինտելեկտի մասին», իսկ մյուսը՝ գեներատիվ արհեստական ինտելեկտի մասին՝ Ազգային Գիտության և տեխնոլոգիաների խորհրդի կողմից: Այս փաստաթղթերը հրապարակվել են խորհրդակցությունների ժամանակաշրջանին զուգահեռ, որը բաց կմնա մինչև հուլիսի 26-ը:
Ավստրալիայի կառավարությունը հետադարձ կապ է փնտրում «AI-ի անվտանգ և պատասխանատու օգտագործումը» խթանելու ռազմավարությունների վերաբերյալ՝ ուսումնասիրելով այնպիսի տարբերակներ, ինչպիսիք են կամավոր էթիկական շրջանակները, հատուկ կանոնակարգերը կամ երկու մոտեցումների համակցությունը: Հատկանշական է, որ խորհրդակցությունն ուղղակիորեն հարցնում է, թե արդյոք բարձր ռիսկային արհեստական ինտելեկտի որոշ հավելվածներ կամ տեխնոլոգիաներ պետք է ամբողջությամբ արգելվեն, և որոնում է տեղեկատվություն նման գործիքների բացահայտման չափանիշների վերաբերյալ:
Համապարփակ քննարկման փաստաթուղթը ներառում է AI մոդելների ռիսկերի մատրիցայի նախագիծը, որը դասակարգում է ինքնակառավարվող մեքենաները որպես «բարձր ռիսկի» և գեներատիվ AI գործիքներ՝ հիվանդների բժշկական գրառումներ ստեղծելու համար որպես «միջին ռիսկի»: Փաստաթուղթն ընդգծում է AI-ի դրական կիրառությունները այնպիսի ոլորտներում, ինչպիսիք են բժշկությունը, ճարտարագիտությունը և իրավունքը, ինչպես նաև պոտենցիալ վնասները՝ կապված խորը կեղծ գործիքների, կեղծ լուրերի ստեղծման և այն դեպքերի վրա, երբ AI բոտերը խրախուսել են ինքնավնասումը:
Ավստրալիայի կառավարությունն ընդդեմ AI-ի
Արհեստական ինտելեկտի մոդելներում կողմնակալության հետ կապված մտահոգությունները, ինչպես նաև արհեստական ինտելեկտի համակարգերի կողմից «հալյուցինացիաներ» անիմաստ կամ կեղծ տեղեկատվության ստեղծումը նույնպես քննարկվում է քննարկման փաստաթղթում: Այն ընդունում է, որ AI-ի ընդունումը Ավստրալիայում ներկայումս սահմանափակ է հանրային վստահության ցածր մակարդակի պատճառով: Թուղթը վկայակոչում է այլ իրավասություններում կիրառվող AI կանոնակարգերը և ChatGPT-ի Իտալիայի ժամանակավոր արգելքը որպես օրինակ:
Բացի այդ, Գիտության և տեխնոլոգիաների ազգային խորհրդի զեկույցը ընդգծում է Ավստրալիայի շահավետ հնարավորությունները ռոբոտաշինության և համակարգչային տեսողության ոլորտում, սակայն նշում է հարաբերական թույլ կողմերը հիմնական ոլորտներում, ինչպիսիք են մեծ լեզվական մոդելները: Այն մտահոգություն է առաջացնում գեներատիվ AI ռեսուրսների կենտրոնացման վերաբերյալ հիմնականում ԱՄՆ-ում գործող փոքր թվով տեխնոլոգիական ընկերություններում, ինչը պոտենցիալ ռիսկեր է ներկայացնում Ավստրալիայի համար:
Զեկույցը հետագայում ուսումնասիրում է AI-ի գլոբալ կարգավորումը, տալիս է գեներատիվ AI մոդելների օրինակներ և ենթադրում է, որ նման մոդելները, հավանաբար, լայնածավալ ազդեցություն կունենան ոլորտների վրա՝ սկսած բանկային և ֆինանսներից մինչև հանրային ծառայություններ, կրթություն և ստեղծագործական ոլորտներ:
Աղբյուր՝ https://www.cryptopolitan.com/australian-government-on-ai-consultation/