OpenAI-ը մայիսի 31-ին հայտարարեց ChatGPT-ի մաթեմատիկական խնդիրների լուծման կարողությունները բարելավելու իր ջանքերի մասին՝ նպատակ ունենալով նվազեցնել արհեստական ինտելեկտի (AI) հալյուցինացիաների դեպքերը: OpenAI-ն ընդգծեց հալյուցինացիաների մեղմացումը՝ որպես համահունչ AGI-ի զարգացմանն ուղղված կարևոր քայլ:
Մարտին ChatGPT-ի վերջին տարբերակի՝ GPT-4-ի ներկայացումը արհեստական ինտելեկտն ավելի առաջ մղեց դեպի հիմնական հոսք: Այնուամենայնիվ, արհեստական ինտելեկտի գեներացնող չաթ-բոտերը երկար ժամանակ պայքարել են փաստական ճշգրտության հետ՝ երբեմն կեղծ տեղեկություններ ստեղծելով, որոնք սովորաբար կոչվում են «հալյուցինացիաներ»: Արհեստական ինտելեկտի այս հալյուցինացիաները նվազեցնելու ջանքերի մասին հայտարարվել է իրենց կայքում տեղադրված գրառման միջոցով:
AI հալյուցինացիաները վերաբերում են այն դեպքերին, երբ արհեստական ինտելեկտի համակարգերը ստեղծում են արդյունքներ, որոնք փաստացիորեն սխալ են, ապակողմնորոշող կամ չեն ապահովվում իրական աշխարհի տվյալների կողմից: Այս հալյուցինացիաները կարող են դրսևորվել տարբեր ձևերով, ինչպիսիք են կեղծ տեղեկություններ ստեղծելը, գոյություն չունեցող իրադարձությունների կամ մարդկանց հորինելը կամ որոշակի թեմաների վերաբերյալ ոչ ճշգրիտ մանրամասների տրամադրումը:
OpenAI-ն հետազոտություն է անցկացրել՝ ուսումնասիրելու երկու տեսակի հետադարձ կապի արդյունավետությունը՝ «արդյունքների վերահսկողություն» և «գործընթացի վերահսկողություն»: Արդյունքների վերահսկողությունը ներառում է հետադարձ կապ՝ հիմնված վերջնական արդյունքի վրա, մինչդեռ գործընթացի վերահսկողությունը ապահովում է մտքի շղթայի յուրաքանչյուր քայլի համար: OpenAI-ը գնահատել է այս մոդելները՝ օգտագործելով մաթեմատիկական խնդիրներ՝ ստեղծելով բազմաթիվ լուծումներ և ընտրելով ամենաբարձր վարկանիշ ունեցող լուծումը՝ ըստ յուրաքանչյուր հետադարձ մոդելի:
Մանրակրկիտ վերլուծությունից հետո հետազոտական թիմը պարզեց, որ գործընթացի վերահսկողությունը բարձր արդյունավետություն է տալիս, քանի որ այն խրախուսում է մոդելին հավատարիմ մնալ մարդու կողմից հաստատված գործընթացին: Ի հակադրություն, արդյունքի վերահսկողությունն ավելի դժվար էր հետևողականորեն ուսումնասիրել:
OpenAI-ն ընդունեց, որ գործընթացի վերահսկման հետևանքները դուրս են գալիս մաթեմատիկայից, և անհրաժեշտ է հետագա ուսումնասիրություն՝ հասկանալու դրա ազդեցությունը տարբեր ոլորտներում: Այն արտահայտում էր հավանականությունը, որ եթե դիտարկվող արդյունքները ճշմարիտ լինեն ավելի լայն համատեքստերում, ապա գործընթացի վերահսկողությունը կարող է առաջարկել կատարողականի և համապատասխանեցման բարենպաստ համադրություն՝ համեմատած արդյունքների վերահսկողության հետ: Հետազոտությունը հեշտացնելու համար ընկերությունը հրապարակավ հրապարակեց գործընթացի վերահսկման ամբողջական տվյալների բազան՝ հրավիրելով ուսումնասիրություններ և ուսումնասիրություններ այս ոլորտում:
Related: AI պահանջարկը կարճ ժամանակով Nvidia-ին տեղափոխում է $1T ակումբ
Թեև OpenAI-ը չի տրամադրել բացահայտ օրինակներ, որոնք դրդել են նրանց հետաքննությունը հալյուցինացիաների վերաբերյալ, երկու վերջին դեպքերը ցույց են տվել խնդիրը իրական կյանքի սցենարներում:
Վերջերս տեղի ունեցած միջադեպի ժամանակ փաստաբան Սթիվեն Ա. Շվարցը Mata v. Avianca Airlines-ի գործով ընդունեց, որ հիմնվել է չաթ-բոտի վրա որպես հետազոտական ռեսուրս: Այնուամենայնիվ, ChatGPT-ի տրամադրած տեղեկատվությունը ամբողջությամբ շինծու է, ինչը մատնանշում է առկա խնդիրը:
OpenAI-ի ChatGPT-ը արհեստական ինտելեկտի համակարգերի միակ օրինակը չէ, որոնք բախվում են հալյուցինացիաների: Microsoft-ի AI-ն մարտին իր չաթ-բոտի տեխնոլոգիայի ցուցադրության ժամանակ ուսումնասիրել է եկամուտների հաշվետվությունները և սխալ թվեր ստեղծել Gap-ի և Lululemon-ի նման ընկերությունների համար:
Magazine. 25 հազար թրեյդերներ խաղադրույք են կատարում ChatGPT-ի բաժնետոմսերի ընտրանքների վրա, AI-ն վատնում է զառախաղը և ավելին
Աղբյուր՝ https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information