ՀԴԲ-ն նախազգուշացնում է AI Deepfake շորթման խարդախությունների մասին

Կենդանակերպ պատկերներ ստեղծելու գեներատիվ արհեստական ​​ինտելեկտի կարողությունները տպավորիչ են, սակայն ԱՄՆ Հետաքննությունների դաշնային բյուրոն ասում է, որ հանցագործներն օգտագործում են խորը կեղծիքներ՝ զոհերին շորթման նպատակով թիրախավորելու համար:

«ՀԴԲ-ն շարունակում է հաղորդումներ ստանալ զոհերից, այդ թվում՝ անչափահաս երեխաներից և չհամաձայնվող մեծահասակներից, որոնց լուսանկարներն ու տեսանյութերը վերածվել են բացահայտ բովանդակության», - ասվում է գործակալության երկուշաբթի օրը PSA ահազանգում:

ՀԴԲ-ն ասում է, որ իրավապահ մարմինները անցյալ տարի ստացել են ավելի քան 7,000 հաղորդումներ առցանց շորթումների մասին, որոնք ուղղված են անչափահասներին, ապրիլից ի վեր, այսպես կոչված, «շորթման խարդախությունների» զոհերի աճ՝ օգտագործելով deepfakes-ը:

Deepfake-ը վիդեո կամ աուդիո բովանդակության ավելի տարածված տեսակ է, որը ստեղծվում է արհեստական ​​ինտելեկտով, որը պատկերում է կեղծ իրադարձություններ, որոնք գնալով ավելի դժվար է ճանաչել որպես կեղծ՝ շնորհիվ գեներացնող AI հարթակների, ինչպիսիք են Midjourney 5.1-ը և OpenAI-ի DALL-E 2-ը:

Մայիսին վիրուսային տարածվեց Tesla-ի և Twitter-ի գործադիր տնօրեն Իլոն Մասկի խորը ֆեյքը, որը խաբել էր կրիպտո ներդրողներին: Սոցցանցերում տարածված տեսանյութը պարունակում էր Մասկի կադրեր նախորդ հարցազրույցներից՝ խմբագրված խարդախությանը համապատասխանելու համար:

Deepfakes-ը բոլորը չարամիտ չեն, Հռոմի պապ Ֆրանցիսկոսի սպիտակ Balenciaga բաճկոնով դիփֆեյքը տարածվեց այս տարվա սկզբին, իսկ վերջերս արհեստական ​​ինտելեկտի ստեղծած դիփֆեյքերը նույնպես օգտագործվել են սպանությունների զոհերին կյանքի կոչելու համար:

Իր առաջարկություններում ՀԴԲ-ն նախազգուշացրել է փրկագին չվճարելու մասին, քանի որ դա չի երաշխավորում, որ հանցագործները, այնուամենայնիվ, չեն հրապարակի deepfake-ը:

ՀԴԲ-ն նաև խորհուրդ է տալիս զգույշ լինել առցանց անձնական տեղեկություններով և բովանդակությամբ տարածելիս, ներառյալ՝ օգտագործել գաղտնիության գործառույթները, ինչպիսիք են հաշիվները անձնական դարձնելը, երեխաների առցանց գործունեության մշտադիտարկումը և մարդկանց արտասովոր վարքագծին հետևելը, ում հետ նախկինում շփվել եք: Գործակալությունը նաև խորհուրդ է տալիս հաճախակի որոնումներ կատարել առցանց անձնական և ընտանիքի անդամների մասին տեղեկությունների համար:

Ահազանգ հնչեցնող այլ գործակալություններից է ԱՄՆ Առևտրի դաշնային հանձնաժողովը, որը նախազգուշացրել է, որ հանցագործներն օգտագործում են խորը կեղծիքներ՝ խաբելու համար անկասկած զոհերին փող ուղարկելու համար՝ ընկերոջ կամ ընտանիքի անդամի աուդիո ֆեյք ստեղծելուց հետո, որն ասում է, որ իրենց առևանգել են:

«Արհեստական ​​ինտելեկտն այլևս անհասկանալի գաղափար չէ գիտաֆանտաստիկ ֆիլմից: Մենք ապրում ենք դրանով, այստեղ և հիմա: Խաբեբայը կարող է արհեստական ​​ինտելեկտի միջոցով կլոնավորել ձեր սիրելիի ձայնը», - ասել է FTC-ն մարտին սպառողների նախազգուշացման մեջ՝ հավելելով, որ հանցավոր բոլոր կարիքները ընտանիքի անդամի ձայնի կարճ աուդիո հոլովակն են՝ ձայնագրությունը իրական դարձնելու համար:

ՀԴԲ-ն դեռ չի արձագանքել Decrypt- ը մեկնաբանություն խնդրելու համար:

Տեղեկացեք կրիպտո նորությունների մասին, ստացեք ամենօրյա թարմացումներ ձեր մուտքի արկղում:

Աղբյուր՝ https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams