Microsoft-ը ուժեղացնում է AI Chatbot-ի անվտանգությունը՝ խաբեբաներին խափանելու համար

Microsoft Corp-ն ավելացրել է մի շարք անվտանգության առանձնահատկություններ Azure AI Studio-ում, որոնք ժամանակի ընթացքում պետք է շարունակեն նվազեցնել AI մոդելները այնպիսի ռեժիմի մեջ, որը թույլ կտա նրանց գործել աննորմալ կամ ոչ պատշաճ կերպով: Վաշինգտոնը ուրվագծել է բարելավումները բլոգային գրառման մեջ՝ ընդգծելով արհեստական ​​ինտելեկտի փոխազդեցության ամբողջականության երաշխավորումը և օգտատերերի բազայի նկատմամբ վստահության խթանումը:

Արագ վահաններ և այլն 

Հիմնական զարգացումների թվում է «արագ վահանների» ստեղծումը, տեխնոլոգիա, որը նախատեսված է արագ ներարկումներ գտնելու և սպանելու համար՝ AI չաթ-բոտերի հետ զրուցելիս: Սրանք այսպես կոչված jailbreak-ներն են և հիմնականում մուտքեր են օգտատերերի կողմից, որոնք դիտավորյալ ձևավորվում են այնպես, որ նրանք անցանկալի արձագանք առաջացնեն AI մոդելներից:

Օրինակ, Microsoft-ը անուղղակիորեն խաղում է իր դերը արագ ներարկումներով, որտեղ հնարավոր է չար հրամանների կատարումը, և նման սցենարը կարող է հանգեցնել անվտանգության ծանր հետևանքների, ինչպիսիք են տվյալների գողությունը և համակարգի առևանգումը: Մեխանիզմները առանցքային են այս եզակի սպառնալիքներին իրական ժամանակում հայտնաբերելու և արձագանքելու համար, ասում է Սառա Բերդը՝ Microsoft-ի պատասխանատու արհեստական ​​ինտելեկտի արտադրանքի գլխավոր տնօրենը:

Microsoft-ը հավելում է, որ շուտով օգտատիրոջ էկրանին կլինեն ահազանգեր, որոնք մատնանշում են, երբ մոդելը, ամենայն հավանականությամբ, կեղծ կամ ապակողմնորոշող տեղեկատվություն է հայտնում՝ ապահովելով օգտատերերի ավելի հարմարավետություն և վստահություն:

Վստահության ձևավորում AI գործիքների նկատմամբ 

Microsoft-ի ջանքերը ավելի մեծ նախաձեռնության մի մասն են, որոնք կոչված են մարդկանց վստահություն հաղորդել աճող տարածված գեներատիվ AI-ի նկատմամբ, որը լայնորեն կիրառվում է առանձին սպառողներին և կորպորատիվ հաճախորդներին ուղղված ծառայություններում: Մայքրոսոֆթն անցել է նուրբ ատամներով սանրով այն դեպքերից հետո, երբ օգտատերերը կարողացել են խաղալ «Copilot» չաթբոտը տարօրինակ կամ վնասակար արդյունքներ արտադրելու համար: Սա կլինի ի աջակցություն արդյունքի, որը ցույց է տալիս, որ անհրաժեշտ է ուժեղ պաշտպանություն նշված մանիպուլյատիվ մարտավարության դեմ, որը, հավանաբար, կբարձրանա արհեստական ​​ինտելեկտի տեխնոլոգիաների և հանրաճանաչ գիտելիքների շնորհիվ: Կանխատեսելը և այնուհետև մեղմելը հարձակման օրինաչափությունների ճանաչումն է, օրինակ, երբ հարձակվողը կրկնում է հարցաքննությունը կամ հուշում է դերակատարման ժամանակ:

Որպես OpenAI-ի խոշորագույն ներդրող և ռազմավարական գործընկեր՝ Microsoft-ը հաղթահարում է այն սահմանները, թե ինչպես ներառել և ստեղծել պատասխանատու, անվտանգ գեներատիվ AI տեխնոլոգիաներ: Երկուսն էլ հավատարիմ են անվտանգության միջոցառումների համար Generative AI-ի պատասխանատու տեղակայմանը և հիմնարար մոդելներին: Բայց Bird-ը խոստովանեց, որ այս մեծ լեզվական մոդելները, նույնիսկ այն դեպքում, երբ դրանք դառնում են հիմք ապագա արհեստական ​​ինտելեկտի նորարարության մեծ մասի համար, մանիպուլյացիաների դեմ չեն:

Այս հիմքերի վրա կառուցելը շատ ավելին կպահանջի, քան պարզապես հիմնվելով մոդելների վրա. այն կպահանջի համապարփակ մոտեցում AI-ի անվտանգության և անվտանգության նկատմամբ:

Microsoft-ը վերջերս հայտարարեց իր Azure AI ստուդիայի անվտանգության միջոցների ուժեղացման մասին՝ ցուցադրելու և երաշխավորելու ակտիվ քայլերը, որոնք ձեռնարկվում են՝ պաշտպանելու AI-ի սպառնալիքների փոփոխվող լանդշաֆտը:

Այն ձգտում է խուսափել AI-ի չարաշահումից և պահպանել AI-ի փոխազդեցության ամբողջականությունն ու հուսալիությունը՝ ներառելով ժամանակին էկրաններ և ահազանգեր:

AI տեխնոլոգիայի մշտական ​​էվոլյուցիայի և առօրյա կյանքի բազմաթիվ ընդգրկումների մեջ դրա ընդունման հետ մեկտեղ, վաղուց ժամանակն է, որ Microsoft-ը և AI-ի մնացած համայնքը պահպանեն անվտանգության շատ զգոն դիրքորոշում:

Աղբյուր՝ https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/