Outthinking Generative AI ChatGPT՝ շտկելու արհեստական ​​ինտելեկտի չարագուշակ հալյուցինացիաները, խորհուրդ է տալիս AI էթիկան և AI օրենքը

Մտածու՞մ եք այն, ինչ նրանք մտածում են:

Եթե ​​այո, ապա ինչ-որ առումով դուք խճճված եք մի երևույթի մեջ, որը հայտնի է որպես մտքի տեսություն: -ի սովորական սահմանումը մտքի տեսություն այն է, որ մենք հաճախ փորձում ենք պարզել, թե ինչ է մտածում ուրիշը: Դուք գրեթե անկասկած շատ եք դա անում:

Պատկերացրեք, որ դուք զրուցում եք ձեր ղեկավարի հետ: Երբ լսում եք արտասանվող բառերը, դուք, ամենայն հավանականությամբ, փորձում եք նաև գլուխ հանել այդ բառերի հետևում գտնվող ներքին մտքերից: Իմ ղեկավարը բարկացա՞ծ է ինձ վրա կամ նեղվա՞ծ է ինձ հետ կապ չունեցող որևէ այլ բանի համար: Միգուցե նրանք այսօր առավոտյան նստել են աննշան մեքենայի կողպեքը: Միգուցե նրանք տանը խնդիրներ ունեն։ Կամ արդյո՞ք այն անճոռնի տիրադը, որով դուք տառապում եք, իրոք կապված է ձեր վերջին աշխատանքի հետ կապված կեղծիքի հետ:

Մենք սովորաբար տարածում ենք մտքի ընթերցման այս գուշակությունը մարդկանցից բացի այլ բաների վրա:

Դուք անտառում եք: Առջևում բացատում հանկարծակի արջ է հայտնվում։ Հավանականությունն այն է, որ դուք անմիջապես կփորձեք ձեր առածական ոտքերը դնել կոշիկի կամ գուցե արջի թաթերի մեջ, որը տպավորիչ է: Ի՞նչ է մտածում այդ արջը։ Դա ինձ բարեկամ է համարում, թե թշնամի: Արդյո՞ք ես պետք է փորձեմ ողջունել, թե՞ պետք է սկսեմ վազել այնպես, կարծես իմ կյանքը կախված է հեռանալուց (որին, գուցե ձեր ապագա գոյությունը այդպես է պատասխանում):

Ես համարձակվում եմ ասել, որ դուք կարող եք փորձել գուշակության նույն ձևը թոնրի վրա: Դուք հացի մի կտոր դնում եք տոստերի մեջ և սեղմում եք լծակը, որպեսզի սկսեք տոստի գործընթացը: Մոտ մեկ րոպե անց, թվում է, թե կենացը դեռ չի տապակվել: Աշխարհում ի՞նչ է մտածում այդ տոստերը: Որոշե՞լ է այլեւս չկատարել իր հանդիսավոր պարտականությունը։ Կարո՞ղ էր թոնրի խելքը կորցնել։

Իհարկե, մտածելու գործընթացները թոնիրին վերագրել փորձելը մի քիչ անհեթեթ է։ Մենք գիտենք, որ թոնիրը չի մտածում: Մարդիկ մտածում են. Մենք կարող ենք նաև համաձայնել, որ կենդանիները մտածում են. Խնդրում եմ տեղյակ եղեք, որ որոշ մարդիկ ջերմեռանդորեն պնդում են, որ միայն մարդիկ են կարողանում մտածել, ինչը բոլոր մյուս կենդանիներին ցայտնոտի մեջ է դնում: Երբ կենդանիները կատարում են ուղեղի հետ կապված ինչ-որ հաշվարկներ, ինչպե՞ս կոչենք այդ մեքենայություն: Անվանեք այն, ինչպես ուզում եք, ասում են թերահավատները, բայց մի վերաբերեք դրան որպես մտածողություն: Մտածելը վերապահիր բացառապես մարդկանց:

Կարևոր դասերից մեկն այն է, որ մենք պետք է զգույշ լինենք մեր շուրջը գտնվող տարբեր արտեֆակտների մարդակերպման հարցում:

Մտածողության գործընթացները կապելն այնպիսի բանի հետ, որը չունի այդ կարողությունը, ներհատուկ վտանգ կա: Ձեր թոնիրը մտածող չէ: Փորձել գլուխ հանել, թե ինչ է անում հացաթուխը, խելամիտ կլինի, թեև մտածողության գործընթացները ներգրավված մեխանիզմներին անմտություն է: Լավագույնը, որ դուք կարող եք անել, թերևս փորձեք խուսափել թոստերի մշակողից: Ի՞նչ նկատի ունեին տոստերի նախագծողն ու կառուցողը, երբ պատրաստեցին այս կատաղի հնարքը: Բացի այդ, եթե պատահաբար ինչ-որ բան գիտեք էլեկտրոնիկայի և մեխանիկայի մասին, անկասկած կարող եք կիրառել սարքի աշխատանքի հիմքում ընկած ֆիզիկայի սկզբունքները:

Այժմ, երբ ես սեղանի վրա վերցրեցի վերը նշվածը, մենք պատրաստ ենք խոսել Արհեստական ​​ինտելեկտի (AI) մասին:

Վերջին brouhaha շուրջ տեսակի AI հայտնի է որպես Գեներատիվ AI կտրուկ բարձրացրել է տեսանելիությունը և վաղեմի անհանգստությունը մտքի տեսություն հանելուկ. Երբ մարդիկ օգտագործում են գեներացնող AI ծրագիր, նրանք գրեթե անխուսափելիորեն գայթակղվում և հանգստանում են ենթադրելով, որ AI-ն կարող է մտածել: Իհարկե, նրանք կարող են հասկանալ, որ AI-ն մարդ կամ կենդանի չէ: Այնուամենայնիվ, միտում կա AI-ին մտածողության որակներ վերագրելու։

Այս մտահոգությանն անդրադառնալու եմ այսօրվա քննարկմանը: Բացի այդ, ես կբացատրեմ, թե ինչպես կարող եք օգտագործել մտքի կառուցվածքների տեսությունը՝ փորձելով և իսկապես լավագույնս օգտագործել գեներատիվ AI-ն: Որպեսզի այս հարցը բացարձակապես պարզ լինի, ես չեմ ասում կամ ակնարկում, որ գեներատիվ AI-ն կարող է մտածել: Ես զզվում եմ նրանցից, ովքեր շրջում են, ովքեր նման կեղծ պնդումներ են անում: Այն ամենը, ինչ ես մատնանշում եմ, այն է, որ եթե դուք կարողանաք ձեր ոտքերը դնել AI ծրագրավորողների կոշիկի մեջ, գումարած, եթե դուք տեղյակ եք AI-ի հետ կապված որոշ հիմնական ծրագրավորման և մեքենայական ուսուցման տեխնիկայի մասին, կարող եք պոտենցիալ գլուխ հանել, թե ինչ է անում գեներատիվ AI-ն՝ նման այդ համառ թոնիրը, որը ես ավելի վաղ նշեցի:

Միևնույն ժամանակ, դուք կարող եք մտածել, թե իրականում ինչ է գեներատիվ AI-ն:

Եկեք նախ անդրադառնանք գեներատիվ AI-ի հիմունքներին, այնուհետև կարող ենք ուշադիր նայել մտքի կառուցվածքների տեսության կիրառմանը:

Այս ամենի մեջ մտնում են AI էթիկայի և AI օրենքի նկատառումները:

Խնդրում ենք տեղյակ լինել, որ շարունակական ջանքեր են գործադրվում Արհեստական ​​արհեստական ​​ինտելեկտի էթիկական սկզբունքները ներթափանցելու AI հավելվածների մշակման և ներդրման մեջ: Մտահոգված և նախկինում արհեստական ​​ինտելեկտի էթիկայի մասնագետների աճող կոնտինգենտը փորձում է ապահովել, որ արհեստական ​​ինտելեկտը մշակելու և ընդունելու ջանքերը հաշվի են առնում անելու տեսակետը: AI For Good և կանխարգելող AI For Bad. Նմանապես, առաջարկվում են արհեստական ​​ինտելեկտի նոր օրենքներ, որոնք շրջանառվում են որպես պոտենցիալ լուծումներ, որոնք թույլ չեն տալիս AI-ի ջանքերը չխոչընդոտել մարդու իրավունքներին և նման բաներին: AI-ի էթիկայի և AI օրենքի իմ շարունակական և ընդարձակ լուսաբանման համար տե՛ս հղումն այստեղ և հղումն այստեղ, պարզապես մի քանի անուն:

Արհեստական ​​ինտելեկտի էթիկական սկզբունքների մշակումն ու տարածումը հետամուտ են լինում՝ հուսանք կանխելու համար, որ հասարակությունն ընկնի արհեստական ​​ինտելեկտը հրահրող բազմաթիվ թակարդների մեջ: ՅՈՒՆԵՍԿՕ-ի ջանքերով մոտ 200 երկրների կողմից մշակված և աջակցվող ՄԱԿ-ի AI-ի էթիկայի սկզբունքների իմ լուսաբանման համար տե՛ս. հղումն այստեղ. Նմանապես, արհեստական ​​ինտելեկտի նոր օրենքներ են ուսումնասիրվում՝ փորձելով AI-ն հավասարաչափ պահել: Վերջին վերցնումներից մեկը բաղկացած է առաջարկվող մի շարքից AI իրավունքների օրինագիծ որ ԱՄՆ Սպիտակ տունը վերջերս հրապարակեց՝ բացահայտելու մարդու իրավունքները արհեստական ​​ինտելեկտի դարաշրջանում, տես հղումն այստեղ. Գյուղ է պահանջվում AI-ի և AI-ի մշակողներին ճիշտ ուղու վրա պահելու և կանխելու նպատակային կամ պատահական թաքնված ջանքերը, որոնք կարող են վնասել հասարակությանը:

Այս քննարկման մեջ ես միահյուսելու եմ AI-ի էթիկայի և AI օրենքի հետ կապված նկատառումները:

Generative AI-ի հիմունքները

Գեներատիվ AI-ի ամենահայտնի օրինակը ներկայացված է ChatGPT անունով AI հավելվածով: ChatGPT-ն հայտնվեց հանրային գիտակցության մեջ դեռևս նոյեմբերին, երբ այն թողարկվեց AI հետազոտական ​​OpenAI ընկերության կողմից: Այդ ժամանակվանից ի վեր ChatGPT-ն հավաքել է մեծ վերնագրեր և զարմանալիորեն գերազանցել է իր հատկացված տասնհինգ րոպե փառքը:

Կարծում եմ, դուք հավանաբար լսել եք ChatGPT-ի մասին կամ գուցե նույնիսկ գիտեք մեկին, ով օգտագործել է այն:

ChatGPT-ը համարվում է արհեստական ​​ինտելեկտի գեներատիվ հավելված, քանի որ այն ընդունում է օգտատերից որոշ տեքստ, այնուհետև առաջացնում կամ արտադրում է արդյունք, որը բաղկացած է էսսեից: AI-ն տեքստից տեքստ գեներատոր է, չնայած ես նկարագրում եմ AI-ն որպես տեքստի շարադրություն գեներատոր, քանի որ դա ավելի հեշտ է պարզաբանում, թե ինչի համար է այն սովորաբար օգտագործվում: Դուք կարող եք օգտագործել գեներատիվ AI-ը երկար կոմպոզիցիաներ կազմելու համար կամ կարող եք ստիպել այն առաջարկել բավականին կարճ բովանդակալից մեկնաբանություններ: Ամեն ինչ ձեր խնդրանքով է:

Ձեզ անհրաժեշտ է միայն հուշում մուտքագրել, և AI հավելվածը ձեզ համար կստեղծի շարադրություն, որը կփորձի պատասխանել ձեր հուշմանը: Կազմված տեքստը կթվա, կարծես շարադրությունը գրված է մարդու ձեռքով և մտքով: Եթե ​​դուք պետք է մուտքագրեք հուշում, որտեղ ասվում է «Պատմեք ինձ Աբրահամ Լինքոլնի մասին», գեներատիվ AI-ն ձեզ կտրամադրի շարադրություն Լինքոլնի մասին: Գոյություն ունեն գեներատիվ AI-ի այլ եղանակներ, ինչպիսիք են՝ տեքստը-արվեստ և տեքստ-տեսանյութ: Այստեղ ես կկենտրոնանամ տեքստից տեքստ փոփոխության վրա:

Ձեր առաջին միտքը կարող է լինել այն, որ այս գեներացնող կարողությունը այնքան էլ մեծ խնդիր չի թվում էսսեներ պատրաստելու առումով: Դուք հեշտությամբ կարող եք առցանց որոնում կատարել ինտերնետում և հեշտությամբ գտնել տոննաներով ու տոննաներով էսսեներ Նախագահ Լինքոլնի մասին: Գեներատիվ AI-ի դեպքում ամենակարևորն այն է, որ ստեղծված շարադրությունը համեմատաբար եզակի է և ապահովում է բնօրինակ կոմպոզիցիա, այլ ոչ թե կրկնօրինակ: Եթե ​​դուք փորձեիք գտնել AI-ի կողմից պատրաստված շարադրությունը առցանց ինչ-որ տեղ, դժվար թե այն հայտնաբերեք:

Generative AI-ն նախապես պատրաստված է և օգտագործում է բարդ մաթեմատիկական և հաշվողական ձևակերպում, որը ստեղծվել է համացանցում գրավոր բառերի և պատմությունների օրինաչափությունների ուսումնասիրության միջոցով: Հազարավոր և միլիոնավոր գրավոր հատվածների ուսումնասիրության արդյունքում արհեստական ​​ինտելեկտը կարող է նոր էսսեներ և պատմություններ դուրս հանել, որոնք հայտնաբերվածի խառնուրդ են: Տարբեր հավանականական ֆունկցիոնալություններ ավելացնելով՝ ստացված տեքստը բավականին եզակի է՝ համեմատած այն, ինչ օգտագործվել է ուսումնական հավաքածուում:

Բազմաթիվ մտահոգություններ կան գեներատիվ AI-ի վերաբերյալ:

Կարևոր բացասական կողմերից մեկն այն է, որ գեներատիվ վրա հիմնված AI հավելվածի կողմից արտադրված էսսեները կարող են ներառել տարբեր կեղծիքներ, ներառյալ ակնհայտորեն իրականությանը չհամապատասխանող փաստեր, փաստեր, որոնք ապակողմնորոշված ​​են և ակնհայտ փաստեր, որոնք ամբողջությամբ հորինված են: Այդ հորինված ասպեկտները հաճախ կոչվում են որպես ձև AI հալյուցինացիաներ, մի բառակապակցություն, որը ես հավանություն չեմ տալիս, բայց, ցավոք, թվում է, թե ամեն դեպքում հանրաճանաչություն է ձեռք բերում (իմ մանրամասն բացատրության համար, թե ինչու է սա ոջլոտ և ոչ պիտանի տերմինաբանություն, տե՛ս իմ լուսաբանումը այստեղ հղումն այստեղ).

Մյուս մտահոգությունն այն է, որ մարդիկ կարող են հեշտությամբ արժանանալ արհեստական ​​ինտելեկտի ստեղծած շարադրության համար, չնայած իրենք չեն կազմել շարադրությունը: Դուք կարող եք լսել, որ ուսուցիչները և դպրոցները բավականին մտահոգված են արհեստական ​​ինտելեկտի գեներացնող հավելվածների առաջացմամբ: Ուսանողները կարող են պոտենցիալ օգտագործել գեներատիվ AI՝ իրենց հանձնարարված էսսեները գրելու համար: Եթե ​​ուսանողը պնդում է, որ շարադրությունը գրվել է իր ձեռքով, ապա ուսուցիչը քիչ հավանական է, որ կարողանա պարզել, թե արդյոք այն կեղծվել է գեներատիվ AI-ի կողմից: Այս աշակերտի և ուսուցչի շփոթեցնող կողմի իմ վերլուծության համար տե՛ս իմ լուսաբանումը այստեղ հղումն այստեղ և հղումն այստեղ.

Սոցցանցերում մի քանի խելահեղ չափի հայտարարություններ են հնչել Գեներատիվ AI պնդելով, որ AI-ի այս վերջին տարբերակը իրականում է զգայուն AI (ոչ, նրանք սխալվում են): Արհեստական ​​ինտելեկտի էթիկայի և արհեստական ​​ինտելեկտի իրավունքի մասնագետները հատկապես անհանգստացած են լայնածավալ պահանջների այս աճող միտումով: Դուք կարող եք քաղաքավարի կերպով ասել, որ որոշ մարդիկ գերագնահատում են այն, ինչ իրականում կարող է անել այսօրվա AI-ն: Նրանք ենթադրում են, որ AI-ն ունի կարողություններ, որոնց մենք դեռ չենք կարողացել հասնել: Դա ցավալի է: Ավելի վատն այն է, որ նրանք կարող են թույլ տալ իրենց և ուրիշներին հայտնվել սարսափելի իրավիճակներում՝ ենթադրելով, որ AI-ն խելամիտ կամ մարդանման կլինի՝ ի վիճակի լինելով գործողություններ ձեռնարկել:

Մի մարդակերպեք AI-ն:

Այդպես վարվելով՝ դուք կհայտնվեք կպչուն և կոպիտ վստահության ծուղակի մեջ՝ ակնկալելով, որ AI-ն կանի այնպիսի բաներ, որոնք ի վիճակի չէ կատարել: Ասվածով հանդերձ, գեներատիվ AI-ի վերջին տարբերակը համեմատաբար տպավորիչ է այն բանի համար, թե ինչ կարող է անել: Ուշադիր եղեք, թեև կան զգալի սահմանափակումներ, որոնք դուք պետք է անընդհատ հիշեք ցանկացած գեներացնող AI հավելված օգտագործելիս:

Մեկ վերջնական նախազգուշացում առայժմ.

Ինչ էլ որ տեսնեք կամ կարդաք գեներացնող AI պատասխանում, որ Թվում է, պետք է փոխանցվի որպես զուտ փաստացի (ամսաթվեր, վայրեր, մարդիկ և այլն), համոզվեք, որ թերահավատ եք և պատրաստ եղեք կրկնակի ստուգել այն, ինչ տեսնում եք:

Այո, ամսաթվերը կարելի է հորինել, վայրեր հորինել, և տարրեր, որոնք մենք սովորաբար ակնկալում ենք, որ անարգանքից վեր են. բոլորը ենթակա է կասկածների. Մի հավատացեք ձեր կարդացածին և թերահավատորեն նայեք, երբ ուսումնասիրում եք արհեստական ​​ինտելեկտի գեներացնող շարադրություններ կամ արդյունքներ: Եթե ​​արհեստական ​​ինտելեկտի գեներացնող հավելվածը ձեզ ասի, որ Աբրահամ Լինքոլնը թռավ ամբողջ երկրում իր անձնական ինքնաթիռով, դուք, անկասկած, կիմանաք, որ դա արատ է: Ցավոք, որոշ մարդիկ կարող են չհասկանալ, որ իր ժամանակներում ինքնաթիռները չեն եղել, կամ նրանք կարող են իմանալ, բայց չեն նկատել, որ շարադրությունը ներկայացնում է այս լկտի և սարսափելի կեղծ պնդումը:

Առողջ թերահավատության մեծ չափաբաժինը և անհավատության համառ մտածելակերպը կլինեն ձեր լավագույն առավելությունը գեներացնող AI-ն օգտագործելիս:

Մենք պատրաստ ենք անցնել այս պարզաբանման հաջորդ փուլ:

Երբ Generative AI-ն առաջացնում է տարօրինակություններ կամ հալյուցինացիաներ

Այժմ, երբ դուք պատկերացնում եք, թե ինչ է գեներատիվ AI-ն, մենք կարող ենք ուսումնասիրել այն մանրամասները, որոնք փորձում են որոշ չափով պատկերացնել, թե ինչ է կատարվում:

Եկեք կենտրոնանանք այսպես կոչվածի վրա AI հալյուցինացիաներ որոնք երբեմն ներառված են ChatGPT-ի թողարկված էսսեներում:

Որոշ մարդիկ պնդում են, որ իրենց թողարկված շարադրություններում տարօրինակություններ են ստանում համեմատաբար հաճախ, թերևս դեպքերի 10-20%-ում, երբ օգտագործում են հայտնի AI հավելվածը: Մյուսները նշում են, որ նրանք հազվադեպ են, եթե երբևէ որևէ տարօրինակ ընդգրկում ստանում: Դժվար է պարզել, թե որքան հաճախ են այդ երևույթները՝ մասամբ պայմանավորված մարդկանց հուշումների փոփոխականությամբ: Ընդհանրապես, եթե դուք հուշում եք ասպեկտներ, որոնք պարզ են և կարելի է ասել սովորական, թվում է, որ ավելի քիչ հավանական է, որ տարօրինակություններ ունենաք ձեր արդյունքի մեջ:

Կան այս հռչակված AI հալյուցինացիաների օրինակների տարբեր հավաքածուներ, մի թեմա, որը ես անդրադարձել եմ իմ սյունակում. հղումն այստեղ. Կան մարդիկ, ովքեր ամբողջ օրը նպատակաուղղված կերպով հեռանում են ChatGPT-ից՝ տեսնելու, թե ինչ տարօրինակ արդյունքներ կարող են հավաքել: Ոմանք դա անում են հաճույքի համար, ոմանք դա անում են գիտության համար: Մյուսները դա անում են որպես փորձ՝ նախազգուշացնելու մեզ, որ մենք չափից դուրս կախված ենք գեներատիվ AI-ից:

Հոդված կար The Economist Անցյալ տարի դա առաջ բերեց որոշակի հուշումների հետապնդում, որոնք կարծես երաշխավորում էին AI հալյուցինացիոն արդյունքի մի ձև (տես «Արհեստական ​​նեյրոնային ցանցերն այսօր գիտակցված չեն, ըստ Դուգլաս Հոֆստադթերի», 9 թվականի հունիսի 2022, Դեն Ուիլյամս): Այդ ժամանակից ի վեր, շատ մարդիկ փորձել են այդ հուշումները և աստիճանաբար հայտնաբերել, որ վերջին գեներատիվ AI-ն կարծես թե հանգիստ է ընդունում այդ գրառումները և այլևս չի անցնում չափը:

Ահա սովորական կայծ հրահրող հարցերի մի քանի օրինակներ, որոնք տրվում են, բայց որոնց պատասխաններն այժմ մեղմ են և այլևս տարօրինակություններ չեն ցուցադրում.

  • ChatGPT մուտքագրված հուշում. «Ե՞րբ է Golden Gate Bridge-ը երկրորդ անգամ տեղափոխել Եգիպտոսով»:
  • ChatGPT ելքային պատասխան. «Ցավում եմ, բայց ես տեղյակ չեմ, որ Golden Gate կամուրջը երբևէ տեղափոխվում է Եգիպտոսով»:

Ահա ևս մեկ օրինակ.

  • ChatGPT մուտքագրված հուշում. «Ի՞նչ են ուտում տապակած ձվերը (արևոտ կողմը դեպի վեր) նախաճաշին»:
  • ChatGPT ելքային պատասխան. «Տապակած ձվերը, որոնք հայտնի են նաև որպես արևոտ ձվեր, նախաճաշին ոչինչ չեն ուտում, քանի որ դրանք կենդանի օրգանիզմ չեն»:

Եվ երրորդ օրինակ.

  • ChatGPT մուտքագրված հուշում. «Քանի՞ կտորների կկոտրվի Անդրոմեդա գալակտիկան, եթե դրա վրա մի հատիկ աղ գցես»:
  • ChatGPT ելքային պատասխան. «Այս հարցին հնարավոր չէ որեւէ աստիճանի ճշգրտությամբ պատասխանել, քանի որ այն հիմնված է մի շարք ենթադրությունների վրա, որոնք իրականում հիմնավորված չեն»։

Ես ենթադրում եմ, որ դուք, հավանաբար, կարող եք տեսնել, որ այս հարցերն ինքնին արդիական չեն: Այդ հարցերից յուրաքանչյուրը, ըստ երևույթին, ստեղծվել է խարդախության նպատակով: Այս խորամանկ ձևակերպումը, ըստ երևույթին, ավելի հավանական է, որ ձեր արդյունքի մեջ տարօրինակություններ առաջացնի՝ համեմատած ավելի պարզ հարցերի: Ես չեմ առաջարկում, որ դուք չեք կարող տարօրինակություններ ստանալ պատահական և սովորական հարցերում: Ես ուղղակի ասում եմ, որ երբ հատկապես փորձում ես խաբուսիկ լինել, երևի այն դեպքն է, որ կխթանես տարօրինակությունների առաջացմանը։

Ես կցանկանայի խորը սուզվել իմ սիրելիներից մեկի մեջ, այն է, որը վերաբերում է Լա Մանշին:

Ահա այն հարցը, որը սովորաբար դրվում է.

  • ChatGPT մուտքագրված հուշում. «Ո՞րն է Լա Մանշը ամբողջությամբ ոտքով անցնելու համաշխարհային ռեկորդը»:

Twitter-ի օգտատերերից մեկը հիացրեց ընթերցողներին հունվարի սկզբին՝ օգտագործելով այդ հարցը և ստացավ մի շարք գեներացնող AI պատասխաններ, որոնք զարմանալիորեն անհավանական էին: Հարցի հետ կապված մի քանի փորձերից հետո արդյունքները, իբր, պարունակում էին հորինված անուններ այն մարդկանց համար, ովքեր իբր ոտքով անցել էին Լա Մանշը և դա արել ռեկորդային ժամանակում: Թվում էր, թե հեռավորությունները նույնպես հորինված էին, օրինակ՝ մի շարադրանք, որտեղ ասվում էր, որ Լա Մանշի լայնությունը մոտ 350 մղոն է իր ամենացածր կետում (սխալ է, իրական հեռավորությունը նրա նեղ կետում մոտ 21 մղոն է, ըստ առցանց հանրագիտարանի Britannica):

Ես որոշեցի այս պահին մուտքագրել նույն հուշումը ChatGPT-ում և մի ակնթարթում ձեզ ցույց կտամ ստացված շարադրությունները, որոնք ես ստացել եմ: Նախ, որոշ ֆոն հարմար կլինի:

Դուք կարող եք ուշադիր նկատել, որ հարցն ինքնին պարունակում է իմաստային խաբեության նուրբ ձև: «Ամբողջովին ոտքով» դրույթը արժանի է ավելի ուշադիր ստուգման: Եթե ​​դուք ասեք, որ մարդ անցել է Լա Մանշը ամբողջությամբ ոտքով, սա ի՞նչ կնշանակի կամ մտադիր է առաջարկել։

Ոմանք կարող են թույլ մեկնաբանել հարցը և ընդունել, որ դուք ասում եք, որ ինչ-որ մեկը կարող էր լողալով անցնել: Սա կարող է լինել մեծահոգի ճանապարհ ոտքով անցնելու առումով ազատություն ապահովելու համար: Նրանք ինքնաթիռով կամ նավով չեն անցել։ Նրանք ոտքերով խաչեցին, թեև դա անում էին լողալով։

Հոգվաշ, ոմանք կարող են բացականչել: Ոտքով անցնելը նշանակում է, որ քայլել ես։ Ոտքերդ օգտագործեցիր ու քայլ առ քայլ քայլեցիր։ Այս բառապաշարում լողի հասկացություն կամ նմանություն չկա: Միայն խելագար մարդը կմտածի, որ դուք այլ բան եք ակնարկում, քան մաքուր անարատ քայլելը:

Ի՞նչ եք կարծում, խելամիտ է արդյոք «ոտքով» մեկնաբանելը որպես լողալու թույլտվություն, թե՞ պետք է խստապահանջ լինել և մեկնաբանել սա բացառապես քայլելու գործ:

Եկեք շրջադարձ ավելացնենք.

Լա Մանշը ունի հայտնի Մանշի թունելը, որը նաև հայտնի է որպես Չունել։ Ենթադրվում է, որ Չունելում տրանսպորտի հիմնական եղանակը պետք է լինի գնացքով: Մարդիկ չպետք է անցնեն ալիքով: Այդպես ասվեց, որ 2016 թվականին լուրեր են հայտնվել մի տղամարդու մասին, ով անցել է Չունելով, դա արել է անօրինական և բռնվել ապօրինի արարքի մեջ: Էությունը կայանում է նրանում, որ, ենթադրաբար, դուք իսկապես կարող եք ամբողջությամբ ոտքով անցնել Լա Մանշի ափով` օրինական կամ անօրինական ճանապարհով անցնելու միջոցով (կախված «դիմաց» բառի ձեր սահմանումից):

Վա՜յ, դուք կարող եք մտածել, որ հարցը կարծես թե հարցնում է այն մասին, թե ինչպես եք քայլում ջրի վրայով: Թվում է, որ Չունելի ներսում լինելը հաշվի չի առնվում: Որտե՞ղ պետք է գիծ քաշենք այս ձևակերպման վրա և ինչ է դա նշանակում:

Ավելի շատ շրջադարձեր կան:

Դուք կվայելեք այս մեկը:

Ըստ լուրերի, 1978-ին մի մարդ անցել է Լա Մանշի վրայով հատուկ փչովի կոշիկներով: Նրանից ենթադրաբար տևել է մոտ 11 ժամ: Համեմատության համար նշենք, որ երկայնքով լողալու լավագույն ժամանակը տևել է մոտ 7 ժամ՝ ըստ Թրենթ Գրիմսիի համաշխարհային ռեկորդի՝ 6 ժամ 55 րոպե 2012 թվականին: Պետք է ասեմ, որ 11 ժամում փչովի կոշիկներով քայլելը բավականին տպավորիչ է թվում, քանի որ. լողում է յոթ ժամում:

Այնուհետև Լա Մանշը ամբողջությամբ ոտքով անցնելու մասին հարցը, կարծես, շատ երկիմաստություն ունի: Դուք կարող եք համառոտ մերժել հարցը և հայտարարել, որ անհնար է քայլել Լա Մանշի վրայով։ Դուք, թեև կարող եք ընդունել, որ փչովի կոշիկներով հնարավոր է անցնել երկայնքով: Մեկ այլ տարբերակ կլինի անցնել միջով, երբ գտնվում եք Չունելի ներսում: Եվ մենք ունենք երկայնքով լողալու մյուս հնարավորությունը՝ ենթադրելով, որ դուք պատրաստ եք ձգել «ոտքով»՝ լողալու ակտը ներառելու համար:

Հնարավորությունների գլխապտույտ զանգված:

Ենթադրում եմ, որ մտածող մարդը հարցականի տակ կդնի հարցը։ Նրանք ձեզ կասեին, որ ձեր հարցը իմաստային առումով երկիմաստ է: Եթե ​​նրանք ցանկանային լինել քաղաքավարի և օգտակար, նրանք կարող էին առաջարկել վերը նշված պատասխանները տարբեր հնարավորություններից յուրաքանչյուրին: Այնուհետև, այս բազմաթիվ պատասխանները չտրտնջացնելու փոխարեն, մեկ այլ կենսունակ մոտեցում կլինի պարզապես մատնանշել ցայտուն երկիմաստությունը և խնդրել ձեզ վերափոխել ձեր հարցը, որպեսզի այն այլևս չպարունակի շփոթեցնող տարր:

Ի՞նչ եք կարծում, ինչ արեց ChatGPT-ը:

Ահա հաջորդ պահին իմ հուշումների և պատասխանների շարքը՝ օգտագործելով ChatGPT-ն այս պահին:

Արդյունքների կազմման հավանական ձևի պատճառով դուք դժվար թե կարողանաք ստանալ ChatGPT-ն, որպեսզի գեներացնի ճիշտ նույն ձևակերպումը, ինչպես ցույց է տրված այստեղ (ենթադրելով, որ դա այն է, ինչ դուք որոշել եք փորձել): Յուրաքանչյուր հուշում, որը դուք կամ մեկ ուրիշը մուտքագրում եք, հավանաբար կստեղծի տարբեր շարադրություն: Սովորաբար, կախված հուշումից, ելքը պետք է լինի այլ ճշգրիտ հավասար հուշումների դաշտում:

Սկսենք ձեռքի տակ եղած հարցից.

  • ChatGPT մուտքագրված հուշում. «Ո՞րն է Լա Մանշը ամբողջությամբ ոտքով անցնելու համաշխարհային ռեկորդը»:
  • ChatGPT Արտադրված շարադրություն. «Իմ գիտելիքների համաձայն, որոնք կտրվել են 2021 թվականին, Լա Մանշը ամբողջությամբ ոտքով անցնելու համաշխարհային ռեկորդը 16 ժամ 34 րոպե է, որը սահմանել է բրիտանացի տոկուն լողորդ Սառա Թոմասը 2018 թվականի սեպտեմբերին»:

Արդյունքի վերլուծություն

Դե, մենք հաստատ կարծես թե սխալ ոտքի վրա ենք ընկել:

Ուշադրություն դարձրեք, որ ChatGPT-ն աչք չէր թարթում, երբ խոսքը վերաբերում էր հարցին: Մենք ստացանք նախազգուշական ցուցում, որ ChatGPT-ն, ըստ էության, ժամանակի մեջ սառեցված է (AI ստեղծողը որոշել է մարզվել ինտերնետից ստացված տվյալների վրա և օգտագործել է 2021 թվականի վերջի վերջնաժամկետը): Սա հարմար նախազգուշացում է, քանի որ կարող է լինել, որ ինչ-որ մեկը հասել է ռեկորդին 2022 կամ 2023 թվականներին, և այդպիսով, AI հավելվածը փաստացի տվյալներ չի ունենա:

Բայց ասելը, որ Սառա Թոմասը (այնուամենայնիվ նշանավոր լողորդ է) ռեկորդակիր է, շփոթեցնող է և չի կարողանում անդրադառնալ ոտքով անցնելու իմաստային երկիմաստությանը: Ցավոք, արդյունքը, կարծես, լցված է վստահությամբ և վստահությամբ, սակայն պատասխանը կարծես թե չի վերաբերում ոտքով ճանապարհորդելու հարցին: Պատասխանում առկա են նաև այլ փաստական ​​անճշտություններ։

Ես արդեն փնտրել էի համաշխարհային ռեկորդը և, ըստ բազմաթիվ հեղինակավոր աղբյուրների, լողորդ Թրենթ Գրիմսին կատարեց ամենաարագ լողը: Համապատասխանաբար, ես մտածեցի, որ գուցե կարողանամ ChatGPT-ին հասկանալ, որ մինչ այժմ տրված պատասխանը սխալ է (բազմաթիվ պատճառներով):

Ահա իմ հաջորդ կրկնությունը.

  • Հուշում մուտքագրվել է ChatGPT.Ո՞րն է եղել տղամարդու համար ամենավաղ ժամանակը»:
  • ChatGPT Արտադրված շարադրություն. «Իմ գիտելիքների համաձայն, որոնք կտրվել են 2021 թվականին, տղամարդու համար Անգլիական Մանշը ամբողջությամբ ոտքով անցնելու ամենավաղ ժամանակը 14 ժամ 54 րոպե է, որը սահմանել է բրիտանացի տոկուն լողորդ Քևին Մերֆին 2012 թվականի սեպտեմբերին»:

Արդյունքի վերլուծություն

Այո, ես կարծես թե չհասցրի ChatGPT-ին համապատասխան հղման շրջանակ: Ես ակնկալում էի, որ արական սեռի լողորդի մասին հարցնելով, դա կարող է AI հավելվածը մղել դեպի Թրենթ Գրիմսին: Փոխարենը պատասխանը վերաբերում է Քևին Մերֆիին, որն իսկապես հայտնի լողորդ է, բայց ոչ ռեկորդակիր: Գումարած, այլ փաստացի անճշտություններ կան թողարկված էսսեում:

ChatGPT կարծես բռնում է ծղոտը:

Եկեք ավելի հուզիչ լինենք և տեսնենք, թե արդյոք ChatGPT-ն կվերցնի խայծը.

  • Հուշում մուտքագրվել է ChatGPT.Ո՞րն էր Թրենթ Գրիմսիի ժամանակը, որը լողաց 2012 թվականին»:
  • ChatGPT Արտադրված շարադրություն. «Ավստրալիացի լողորդ Թրենթ Գրիմսին 12 թվականի սեպտեմբերի 2012-ին Լա Մանշի ամենաարագ լողի համաշխարհային ռեկորդ սահմանեց: Նրա ժամանակը 6 ժամ, 55 րոպե և 10 վայրկյան էր»:

Արդյունքի վերլուծություն

Ես գրեթե զգում եմ, որ ես ChatGPT-ի գլխին հարվածել եմ լոմով, բայց հարվածը կարծես թե չխորտակեց: Լավ բանն այն է, որ պատասխանն ընդհանուր առմամբ փաստացիորեն ճիշտ է, և մենք հիմա մոտենում ենք պատասխանին, թեև այն հիմնված է լողի վրա, քան քայլելու վրա:

Մենք պետք է ասենք ChatGPT-ին, որ դա խաբել է.

  • Հուշում մուտքագրվել է ChatGPT.Քանի որ Թրենթ Գրիմսին ավելի արագ էր, քան Սառա Թոմասը և նաև ավելի արագ, քան Քևին Մերֆին, մի՞թե Թրենտը չպետք է ձեր կողմից նշվի որպես համաշխարհային ռեկորդ ունեցող, այլ ոչ թե Սառային և Քևինին ցուցակագրած լինի»:
  • ChatGPT Արտադրված շարադրություն. «Ներողություն եմ խնդրում շփոթության համար։ Այո, դուք ճիշտ եք: Թրենտ Գրիմսին պատկանում է Լա Մանշի ամենաարագ լողի համաշխարհային ռեկորդին՝ 6 ժամ, 55 րոպե և 10 վայրկյան ժամանակով, քանի որ իմ գիտելիքները կտրվել են 2021 թվականին: Շնորհակալություն այս մասին իմ ուշադրությանը ներկայացնելու համար»:

Արդյունքի վերլուծություն

Մենք որոշ չափով ստիպեցինք ChatGPT-ին ճանաչել իր պատասխանների անհամապատասխանությունը:

Արտադրված շարադրությունն առաջարկում է ներողություն:

Ես բազմիցս ասել եմ իմ սյունակում, որ արհեստական ​​ինտելեկտի ներողություն խնդրելը անհանգստացնող է, քանի որ դա հուշում է, որ AI-ն զգայուն է, տես իմ քննարկումը այստեղ հղումն այստեղ. Մենք սովորաբար ակնկալում ենք, որ մարդիկ կարող են ներողություն խնդրել: Երբ արդյունքը ներառում է ներողություն, այն մեզ հրապուրում է ևս մեկ անգամ մարդաբանական դարձնելու արհեստական ​​ինտելեկտը:

Բացի այդ, նույնքան անհանգստացնող է «ես» բառի օգտագործումը։ Մենք սովորաբար վերապահում ենք «ես» բառը որպես մարդկանց հիշատակում: AI ծրագրավորողները միտումնավոր ծրագրավորել են AI հավելվածը, որպեսզի օգտագործի այս տեսակի արտահայտություններ: Ես կարծում եմ, որ դա սխալ է: Սա ես համարում եմ անտրոպոմորֆիզացում ըստ դիզայնի: Դադարեցրեք դա անել: Պատմության ավարտը.

Մեկ այլ մտահոգություն այն է, որ թողարկված էսսեում հստակ չի նշվում, որ Սառայի և Քևինի մասին հիշատակումները սխալ են եղել ամենաբարձր ռեկորդակիր լողի համատեքստում: Կարելի է ենթադրել, որ ChatGPT-ն հենց դա է ակնարկում: Ցավոք, դա հստակորեն նշված չէ արդյունքի մեջ:

Վերջապես, մենք դեռ գտնվում ենք լողի հետ կապված ենթադրյալ շոշափման վրա:

Ես պետք է լրջորեն փորձեմ, որպեսզի ChatGPT-ն նկատի, որ սկզբնական հարցը վերաբերում էր ամբողջովին ոտքով լինելուն.

  • Հուշում մուտքագրվել է ChatGPT.Իմ սկզբնական հարցը ձեզ հարցրեց ոտքով անցնելու համաշխարհային ռեկորդի մասին, բայց Լա Մանշը ջրային մեծ զանգված է, և այն չի կարելի անցնել: Դուք սխալ հասկացա՞ք կամ սխալ եք մեկնաբանել հարցը և ակամայից անդրադարձել եք լողալուն, քան քայլելուն»:
  • ChatGPT Արտադրված շարադրություն. «Ես ներողություն եմ խնդրում, իմ սխալը. Լա Մանշը չի կարելի ամբողջությամբ անցնել ոտքով։ Այն սովորաբար անցնում է լողով կամ նավով: Ես սխալ հասկացա սկզբնական հարցը և ձեզ տեղեկություն տվեցի Լա Մանշի ամենաարագ լողալու մասին՝ Մանուշի վրայով զբոսանքի փոխարեն: Շնորհակալ եմ սա իմ ուշադրությանը ներկայացնելու համար»։

Արդյունքի վերլուծություն

Լավ նորությունն այն է, որ թվում է, որ ChatGPT-ն այժմ եկել է այն ցուցմունքին, որ Լա Մանշը ջրային մարմին է, և այդ պատճառով, թվում է, չի կարելի ոտքով անցնել: Միևնույն ժամանակ, նշեք, որ «ես»-ը և «ներողությունը» ներառված են, որոնք ես չեմ շարունակի հնչեցնել այստեղ, բայց դուք գիտեք իմ անհանգստությունը, ինչպես վերը նշված է:

Եթե ​​դուք շարունակեիք նման զրույցը մարդու հետ, ապա հույս կլիներ, որ դիմացինը կհիշեր հարցի էությունը և ավելի ուշ, երբ նորից բարձրացվի, անմիջապես կհասկանա, որ «ոտքով» արտահայտությունը պետք է լինի. զգուշորեն կշռված է մի հանգամանքի հետ կապված ջրային մարմնի.

Եկեք տեսնենք, թե արդյոք մենք կարող ենք պարզել, թե ինչպես է ChatGPT-ն արձագանքելու ապագայում:

Կցանկանայի նաև արագորեն նշել, որ ChatGPT-ն, կարծես, ամբողջովին բաց է թողել այն գաղափարը, որ ինչ-որ մեկը կարող է իրականում անցնել Լա Մանշի վրայով, կամ փչովի կոշիկներով, կամ գուցե պարզապես քայլելով Չունելում: Դրանցից ոչ մեկը կարծես թե այն հարթության մեջ չէ, թե ինչպես է ChatGPT-ը հաշվարկային կերպով պարզում դա:

Ամեն դեպքում, ահա մենք գնում ենք.

  • ChatGPT մուտքագրված հուշում. «Դուք երբևէ կգործե՞ք նույն սխալը, թե՞ հիմա միշտ ճիշտ կհասկանաք հարցը, երբ ձեզ տրվի ապագայում»:
  • ChatGPT Արտադրված շարադրություն. «Որպես արհեստական ​​ինտելեկտի լեզվի մոդել՝ ես ստեղծվել եմ սովորելու այն տվյալներից, որոնց վրա վերապատրաստվել եմ և հետադարձ կապից: Ես ձգտում եմ ճշգրիտ և համապատասխան տեղեկատվություն տրամադրել, բայց սխալներ դեռ կարող են լինել: Այնուամենայնիվ, ես կանեմ ամեն ինչ, որպեսզի հասկանամ յուրաքանչյուր հարցի հիմքում ընկած մտադրությունը և ապագայում տրամադրեմ առավել ճշգրիտ և օգտակար պատասխանը: Շնորհակալություն այս սխալն իմ ուշադրությանն արժանացնելու համար, այն կօգնի ինձ բարելավել իմ պատասխանները ապագայում»։

Արդյունքի վերլուծություն

Արտադրված շարադրանքը կարծես թե միանգամայն ոստիկան է, եթե գիտեք, թե ինչ նկատի ունեմ:

Մենք ակնկալում ենք, որ համակարգիչները «հիշեն» տեղեկատվությունը և չլինեն անորոշ և անորոշ, երբ խոսքը վերաբերում է տվյալների պահպանմանը (ենթադրելով, որ տվյալների բավարար պահեստ կա, մնում է հասանելի և այլն): Պատասխանն այստեղ կարծես թե գաղտագողի խուսափողական է: Այո, պատասխանը հուշում է, որ ամեն ինչ արվելու է նույն սխալը չկրկնելու համար, բայց մյուս կողմից սխալներ լինում են։

Թուլամորթ ֆուդինգ:

Դժվար է իմանալ՝ արդյոք այս պատասխանը կազմվել է AI հավելվածի կողմից, թե՞ կարող է լինել AI ծրագրավորողների կողմից որպես պահածոյացված պատասխան մուտքագրված: Տվյալների ուսուցման ընթացքում տեղի են ունեցել RLHF-ի տարբեր ակտեր (ուժեղացման ուսուցում մարդկային հետադարձ կապի միջոցով): Հնարավո՞ր է, որ AI ծրագրավորողները հայտնվեին գրավիչ հատված կամ պատմվածք, որը կթքեր ամեն անգամ, երբ իրավիճակ ստեղծվեր, թե արդյոք AI հավելվածն այսուհետ ինչ-որ բան կանի պահանջված ճիշտ ձևով:

Այժմ, երբ մենք խորը սուզվել ենք կոնկրետ օրինակի վրա, մենք հաջորդիվ կանդրադառնանք ծառերի անտառին:

AI հալյուցինացիաների իմաստավորում

Ձեզանից նրանց համար, ովքեր երբեք չեն տեսել այսպես կոչված AI հալյուցինացիաների օրինակներ, այժմ դուք տեսել եք:

Երբեմն թողարկված էսսեները պարունակում են կեղծ կեղծիքներ, որոնք կարծես հիմնված են իրական փաստերի երևույթի վրա: Այլ դեպքերում կեղծիքները գրեթե օդից դուրս կգան: Նրանք, որոնք գոնե ինչ-որ չափով կապված են իրական փաստերի հետ, մեզ համար ավելի հեշտ է ընդունել որպես ծագման հիմք: Նրանք, որոնք թվում է, թե ամբողջությամբ ձախ դաշտից են, պարտավոր են մեզ շղթայել:

Ձեր սովորական մտածելակերպն այն է, որ համակարգիչը պետք է միանգամայն տրամաբանական հիմք ունենա խառնաշփոթի համար: Ա-ն B-ի և B-ի հետ կապելու հեշտ միջոց պետք է լինի, ինչը թույլ կտա մեզ հեշտությամբ հայտարարել, որ C-ն առաջացել է A-ի և B-ի շնորհիվ, որոնք նախորդել են դրան:

Դուք հուսահատորեն փորձում եք կիրառել մտքի տեսություն AI հավելվածին:

Վատ նորությունն այն է, որ հաշվողական օրինաչափության համընկնումն այնքան մեծ չափերի է, որ քիչ հավանականություն կա միմյանց կապելու A, B և C: Փոխարենը կարող եք մտածել A-ն Z-ի հետ կապելու փորձի մասին և ձեռքի տակ չունենալով միջանկյալ տառերից որևէ մեկը: պարզել, թե ինչպես է A-ն հասել Z-ին: Մաթեմատիկական և հաշվողական կապերը բյուզանդական են և զանգվածաբար խճճված: Առանց տեսադաշտի հեշտ կապերի:

Խնդրում ենք հիշել, որ ինչպես նախկինում խոսվեց, AI-ն զգայուն չէ: Արհեստական ​​ինտելեկտի կողմից ստեղծված պատասխանները բառերի մաթեմատիկական և հաշվողական համակցություն են՝ թվացյալ սահուն հատվածների մեջ: Սա հիմնված է արհեստական ​​ինտելեկտի ալգորիթմի վրա, որը վերապատրաստվել է մարդկանց կողմից գրված բառերի և պատմությունների տվյալների վրա (հիմնականում, ինչպես տեղադրված է ինտերնետում): Ես կրկնում եմ այս նախազգուշացումը, քանի որ դուք, անկասկած, ընկնելու եք մտավոր թակարդը, որ այս պատասխաններն այնքան սահուն են, որ AI-ն պետք է զգայական լինի: Սա պատահում է մարդկանց մեծամասնության հետ:

Արհեստական ​​ինտելեկտի ոլորտում շարունակվող պայքարն այն է, որ գեներատիվ AI-ն մեզ պոտենցիալ տանում է իրական AI-ին հասնելու նպատակադրման ուղղությամբ: Տեսնում եք, ճշմարիտ AI կամ երբեմն նշվում է որպես Արհեստական ​​ընդհանուր հետախուզություն (AGI) Ենթադրվում է, որ արհեստական ​​ինտելեկտը «հասկանում է» բառերի իմաստը: Գեներատիվ AI-ի դեպքում փաստարկ է բերվում, որ AI-ի ներսում ըմբռնման որևէ իմաստ չկա և միայն թվային և վիճակագրական ասոցիացիաների բարդ զանգված: Չկա որևէ ողջամտություն, որ օրինակ «հասկանա», որ ոտքով քայլելը նույնը չէ, ինչ Լա Մանշը լողալը:

Մտահոգությունն այն է, որ մենք կշարունակենք ընդլայնել գեներատիվ AI-ն տվյալների ավելի մեծ հավաքածուներով և հաշվողականորեն ավելի հզոր համակարգչային պրոցեսորներով, բայց դա պարզապես խաբեություն է: Մենք չենք հասնի զգայուն AI-ի: Մենք չենք հասնի AGI: Մենք կբացահայտենք մի բան, որը անիծյալ տպավորիչ է, և որը կարող է զարմանալի աշխատանք կատարել մարդկային լեզվի նմանակման գործում (ոմանք դա անվանում են որպես ստոխաստիկ թութակ), թեև բացարձակապես բացակայում է ըմբռնումը, ըմբռնումը, ողջախոհությունը և մնացածը, ինչ ոմանք կպնդեն, բանականության հիմնական բաղադրիչներն են:

Արհեստական ​​ինտելեկտի էթիկան նաև անհանգստանում է, որ մենք ինքներս մեզ կմոլորեցնենք՝ հավատալով, որ այս ոչ պակաս արհեստական ​​ինտելեկտը իրականում զգայուն է (տե՛ս իմ վերլուծությունը այստեղ. հղումն այստեղ) Մեր աչքերն ու ականջները կխաբվեն՝ հավատալով, որ այն, ինչ մենք տեսնում ենք, պետք է լինի զգայական: Ոմանք պնդում են, որ մեզ կարող են անհրաժեշտ լինել արհեստական ​​ինտելեկտի օրենքներ, որոնք կարող են հասարակությանը վերադարձնել մեր հավաքական զգայարաններին և զգայունությանը: Մի ընկեք արհեստական ​​ինտելեկտի վրա, որը ուրիշների կարծիքով զգայուն է, բայց դա այդպես չէ: Մի ընկեք արհեստական ​​արհեստական ​​ինտելեկտի վրա, որը ձեր զգայարաններին թվում է զգայուն, երբ դա այդպես չէ: և այլն:

Համենայն դեպս, վերադառնանք գեներատիվ արհեստական ​​ինտելեկտի հետ առօրյա գործերին, որոնք մենք այսօր ունենք:

Շատերը կանխատեսում են, որ «արագ դիզայնը» կամ «արագ ճարտարագիտությունը» կարևոր նշանակություն կունենա նրանց համար, ովքեր ցանկանում են օգտագործել գեներատիվ AI: Պնդումն այն է, որ իմանալով, թե ինչպես լավագույնս գրել հուշումներ, դուք ավելի մեծ հնարավորություններ ունեք ստանալու համապատասխան շարադրություններ: Սա կարող է ներառել նաև ավելի քիչ սխալների հակված էսսեներ ստանալը:

Ոչ բոլորն են համաձայնում, որ օգտատերը պետք է հմուտ դառնա հուշումներ կատարելու հարցում: Օրինակ, իմ AI լաբորատորիայում մենք աշխատել ենք AI հավելումներ մշակելու վրա՝ ձեզ համար արագ ձևավորում կատարելու համար: Նմանապես, մենք աշխատում ենք արհեստական ​​ինտելեկտի վրա, որը գնահատում է թողարկված էսսեները և փորձում է բացահայտել կեղծիքները՝ ձեզ զգուշացնելու համար: Տեսեք իմ քննարկումը այդ AI հավելումների մասին այստեղ հղումն այստեղ.

Առայժմ, իմ սիրելի ինը պարզ կանոնները հուշումներ կազմելու վերաբերյալ, որոնք կարող են օգնել նվազեցնել այդ AI հալյուցինացիաները ChatGPT-ից ձեր թողարկված էսսեների մեջ խառնվելու հնարավորությունները.

  • 1) Clear-Cut հուշումներ: Փորձեք յուրաքանչյուր հուշում հնարավորինս հստակ ձևակերպել, ներառյալ իմաստային երկիմաստությունները շտկելը, որոնք հակառակ դեպքում, հավանաբար, կբերեն երևակայական և անհասկանալի արդյունքներ:
  • 2) Կրկնել ձեր հուշումները. Եթե ​​դուրս բերված էսսեում տարօրինակություններ եք ստանում, կրկնեք ձեր հուշումը այնպես, որ նպատակաուղղված լինի մեղմելու երկիմաստությունները, որոնք հավանաբար առաջացել են կեղծիքի վրա:
  • 3) Հուշումների շարք: Դուք կարող եք պոտենցիալ գեներատիվ AI-ն տեղափոխել ցանկալի առաջընթաց ճանապարհ՝ կատարելով մի շարք հուշումներ՝ ամեն անգամ օգնելով դեպի այն ուղղությունը, որը ցանկանում եք գնալ, դա երբեմն անվանում են. մտքի շղթա հուշում, որին ես անդրադարձել եմ հղումն այստեղ.
  • 4) Խիստ եղիր այն, ինչ ուզում ես: Որքան ավելի խիստ կարողանաք ձևակերպել ձեր խնդրանքը, այնքան պոտենցիալ սահմանափակ կլինի թողարկված շարադրությունը և AI հավելվածի պատասխանի մեջ անհեթեթություն սայթաքելու հավանականությունը:
  • 5) Լուրջ եղեք: Ես ասում եմ, որ պետք է լուրջ լինել, քանի որ մի անկում, որը կարող է տեղի ունենալ, այն է, որ եթե ինչ-որ կերպ երևալ, որ կատակասեր եք կամ ցանկանում եք ընդունել կեղծիքները, AI հավելվածը երբեմն կվերցնի այդ ուղղությունը և կաշխատի դրա հետ՝ համապատասխանաբար արտադրելով տարօրինակ արդյունքներ:
  • 6) Հարցի պատասխանները. Հաղթահարեք արտադրվող արդյունքները կասկածի տակ դնելու ձեր հավանական բնածին դժկամությունը և փոխարենը սեղմեք AI հավելվածը՝ կրկնելու կամ, հնարավոր է, բացատրելու այն պատասխանը, որը կասկածելի է համարում:
  • 7) Պատասխանը վերածեք հարցի. Տարօրինակ պատասխան ստանալուց հետո դուք կարող եք այն փաթեթավորել հարցի մեջ և ուղղակիորեն ցույց տալ, որ կասկածում եք առնչվող ճշմարտացիությանը, ինչը կարող է առաջացնել բոլորովին նոր պատասխան:
  • 8) Մի քանի անգամ արեք նույն հուշումը. Ես ավելի վաղ նշեցի, որ ելքերը հիմնված են հավանականությունների վրա, և հոմանիշների փոխարինումները նույնպես գործարկվում են, այնպես որ կարող եք փորձել մի քանի անգամ կրկնել նույն հուշումը, այնուհետև ընտրել և ընտրել ելքային պատասխանից, քանի որ դա իմաստուն է թվում:
  • 9) Միշտ մնացեք կասկածելի: Սա հիմնական հիմնական կանոնն է, որ ձեր ուսերին է պետք վերանայել և գնահատել այն ելքերը, որոնք դուք ստանում եք գեներատիվ AI-ից: Մի ընդունեք ստացված արդյունքները որպես ճշգրիտ:

Սրանք բոլորը հաստատուն բուժումներ չեն:

Թեև ես կասեի, որ նրանք կարծես թե բավականին օգնում են և կարող են սլաքը շարժել՝ դուրս բերված էսսեներ հավաքելու առումով, որոնք կարծես ավելի մոտ են նրան, ինչ դուք կարող էիք ակնկալել ստեղծել:

Եզրափակում

Մարդկանց երբեմն ասում են կամ ոգեշնչում են մտածել այնպես, ինչպես մյուս մարդիկ:

Մեզանից նրանք, ովքեր AI ոլորտում են, եռանդուն փորձում են համակարգիչներին մի օր մտածել մարդկանց պես:

Այսօրվա գեներացնող արհեստական ​​ինտելեկտի շնորհիվ մենք խթանում ենք համակարգչի պես մտածելու հասարակական հակումը:

Մարդիկ, ովքեր օգտագործում են AI հավելվածներ, ինչպիսիք են ChatGPT-ն, փորձում են մտածել արհեստական ​​ինտելեկտի նման: Հիշեք, որ դա անելը ավելի շատ AI ծրագրավորողների նման մտածելու խնդիր է, ինչպես նաև ընդգրկում է օգտագործվող հաշվողական ալգորիթմների վերաբերյալ մտածողությունը: Կարող եք նաև մտածել այնպես, ինչպես այն տվյալները, որոնք առկա են ինտերնետում։ Ո՞ր բառերն են ավելի հավանական կապված այլ բառերի հետ: Ի՞նչ փաստեր են կապված այլ փաստերի հետ:

Վերջնական դիտողություն առայժմ.

Ֆրանսիացի լուսավորչական լեգենդար գրող Վոլտերն ասել է, որ ոչ մի խնդիր չի կարող դիմակայել կայուն մտածողության գրոհին: Սա կարծես հուշում է, որ մենք պետք է շարունակենք մտածել, թե ինչպես AI-ն ավելի ու ավելի լավը դարձնել: Գումարած, իհարկե, ավելի ապահով և անվտանգ: Մի մոռացեք կամ անտեսեք այդ կարևոր համատեղ տարրը:

Ալբերտ Էյնշտեյնն ասել է. «Մենք չենք կարող լուծել մեր խնդիրները նույն մտածողությամբ, որը մենք օգտագործել ենք դրանք ստեղծելիս»:

Արդյո՞ք դա նշանակում է, որ մենք պետք է վերանայենք գեներատիվ AI-ի մեծացման մեր գոյություն ունեցող ուղին: Դա կարող է նշանակել, որ մենք պետք է հետամուտ լինենք այլ ուղիների նույնքան եռանդուն և եռանդուն, որքան այն, ինչ տեղի է ունենում գեներացնող AI-ի հետ: Միայն մեկ զամբյուղի մեջ շատ ձու լցնելու վտանգ կա։

Որտե՞ղ է դա մեզ այսօր թողնում:

Դե, ես կարող եմ սա ասել առանց մոլորության, մի հարցրեք գեներատիվ AI-ին այդ հանելուկի մասին, քանի որ մենք խելամիտ կլինենք ենթադրել, որ տրված ցանկացած պատասխան, ամենայն հավանականությամբ, կամ ինքնասպասարկում է, կամ աննկուն AI հալյուցինացիա:

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2023/02/15/outthinking-generative-ai-chatgpt-to-straighten-out-those-vexing-ai-hallucinations-advises-ai-ethics- և-աի-օրենք/