Ահա թե ինչպես է OpenAI-ը նախատեսում մաքրել ChatGPT-ն կեղծ տեղեկություններից

OpenAI-ը մայիսի 31-ին հայտարարեց ChatGPT-ի մաթեմատիկական խնդիրների լուծման կարողությունները բարելավելու իր ջանքերի մասին՝ նպատակ ունենալով նվազեցնել արհեստական ​​ինտելեկտի (AI) հալյուցինացիաների դեպքերը: OpenAI-ն ընդգծեց հալյուցինացիաների մեղմացումը՝ որպես համահունչ AGI-ի զարգացմանն ուղղված կարևոր քայլ:

Մարտին ChatGPT-ի վերջին տարբերակի՝ GPT-4-ի ներկայացումը արհեստական ​​ինտելեկտն ավելի առաջ մղեց դեպի հիմնական հոսք: Այնուամենայնիվ, արհեստական ​​ինտելեկտի գեներացնող չաթ-բոտերը երկար ժամանակ պայքարել են փաստական ​​ճշգրտության հետ՝ երբեմն կեղծ տեղեկություններ ստեղծելով, որոնք սովորաբար կոչվում են «հալյուցինացիաներ»: Արհեստական ​​ինտելեկտի այս հալյուցինացիաները նվազեցնելու ջանքերի մասին հայտարարվել է իրենց կայքում տեղադրված գրառման միջոցով:

AI հալյուցինացիաները վերաբերում են այն դեպքերին, երբ արհեստական ​​ինտելեկտի համակարգերը ստեղծում են արդյունքներ, որոնք փաստացիորեն սխալ են, ապակողմնորոշող կամ չեն ապահովվում իրական աշխարհի տվյալների կողմից: Այս հալյուցինացիաները կարող են դրսևորվել տարբեր ձևերով, ինչպիսիք են կեղծ տեղեկություններ ստեղծելը, գոյություն չունեցող իրադարձությունների կամ մարդկանց հորինելը կամ որոշակի թեմաների վերաբերյալ ոչ ճշգրիտ մանրամասների տրամադրումը:

OpenAI-ն հետազոտություն է անցկացրել՝ ուսումնասիրելու երկու տեսակի հետադարձ կապի արդյունավետությունը՝ «արդյունքների վերահսկողություն» և «գործընթացի վերահսկողություն»: Արդյունքների վերահսկողությունը ներառում է հետադարձ կապ՝ հիմնված վերջնական արդյունքի վրա, մինչդեռ գործընթացի վերահսկողությունը ապահովում է մտքի շղթայի յուրաքանչյուր քայլի համար: OpenAI-ը գնահատել է այս մոդելները՝ օգտագործելով մաթեմատիկական խնդիրներ՝ ստեղծելով բազմաթիվ լուծումներ և ընտրելով ամենաբարձր վարկանիշ ունեցող լուծումը՝ ըստ յուրաքանչյուր հետադարձ մոդելի:

Մանրակրկիտ վերլուծությունից հետո հետազոտական ​​թիմը պարզեց, որ գործընթացի վերահսկողությունը բարձր արդյունավետություն է տալիս, քանի որ այն խրախուսում է մոդելին հավատարիմ մնալ մարդու կողմից հաստատված գործընթացին: Ի հակադրություն, արդյունքի վերահսկողությունն ավելի դժվար էր հետևողականորեն ուսումնասիրել:

OpenAI-ն ընդունեց, որ գործընթացի վերահսկման հետևանքները դուրս են գալիս մաթեմատիկայից, և անհրաժեշտ է հետագա ուսումնասիրություն՝ հասկանալու դրա ազդեցությունը տարբեր ոլորտներում: Այն արտահայտում էր հավանականությունը, որ եթե դիտարկվող արդյունքները ճշմարիտ լինեն ավելի լայն համատեքստերում, ապա գործընթացի վերահսկողությունը կարող է առաջարկել կատարողականի և համապատասխանեցման բարենպաստ համադրություն՝ համեմատած արդյունքների վերահսկողության հետ: Հետազոտությունը հեշտացնելու համար ընկերությունը հրապարակավ հրապարակեց գործընթացի վերահսկման ամբողջական տվյալների բազան՝ հրավիրելով ուսումնասիրություններ և ուսումնասիրություններ այս ոլորտում:

Related: AI պահանջարկը կարճ ժամանակով Nvidia-ին տեղափոխում է $1T ակումբ

Թեև OpenAI-ը չի տրամադրել բացահայտ օրինակներ, որոնք դրդել են նրանց հետաքննությունը հալյուցինացիաների վերաբերյալ, երկու վերջին դեպքերը ցույց են տվել խնդիրը իրական կյանքի սցենարներում:

Վերջերս տեղի ունեցած միջադեպի ժամանակ փաստաբան Սթիվեն Ա. Շվարցը Mata v. Avianca Airlines-ի գործով ընդունեց, որ հիմնվել է չաթ-բոտի վրա որպես հետազոտական ​​ռեսուրս: Այնուամենայնիվ, ChatGPT-ի տրամադրած տեղեկատվությունը ամբողջությամբ շինծու է, ինչը մատնանշում է առկա խնդիրը:

OpenAI-ի ChatGPT-ը արհեստական ​​ինտելեկտի համակարգերի միակ օրինակը չէ, որոնք բախվում են հալյուցինացիաների: Microsoft-ի AI-ն մարտին իր չաթ-բոտի տեխնոլոգիայի ցուցադրության ժամանակ ուսումնասիրել է եկամուտների հաշվետվությունները և սխալ թվեր ստեղծել Gap-ի և Lululemon-ի նման ընկերությունների համար:

Magazine. 25 հազար թրեյդերներ խաղադրույք են կատարում ChatGPT-ի բաժնետոմսերի ընտրանքների վրա, AI-ն վատնում է զառախաղը և ավելին

Աղբյուր՝ https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information