AI-ի էթիկան և արհեստական ​​ինտելեկտի օրենքը պարզապես կարող են դրդվել և դրդվել անվտանգության նախազգուշացումների պարտադիր կատարման համար բոլոր գոյություն ունեցող և ապագա AI-ի վերաբերյալ

Ձեր ամենօրյա գործունեությունը, անկասկած, ռմբակոծվում է այս կամ այն ​​տեսակի հազար կամ ավելի նախազգուշական նախազգուշացումներով:

Փորձեք դրանք չափի համար.

  • Անվտանգության ակնոցները պետք է միշտ կրել
  • Վտանգ. մոտակայքում առկա են վտանգավոր քիմիական նյութեր
  • Բարձր լարում – Հեռու մնացեք
  • Զգուշացում. Զգուշացեք ձեր շրջապատից
  • Հայելու մեջ գտնվող առարկաները ավելի մոտ են, քան թվում են
  • Հեռացրեք երեխային ծալելուց առաջ (ինչպես նշված է մանկասայլակների վրա)
  • Ուշադրություն. Համոզվեք, որ անտեսել եք այս հաղորդագրությունը

Դրանցից շատերը հարմար և բոլորովին մտածված նշաններ կամ պիտակներ են, որոնք ծառայում են մեզ ապահով և ապահով պահելու համար:

Խնդրում եմ տեղյակ եղեք, որ ես ցանկում եմ մի քանի «առանձնահատկություններ»՝ ուշագրավ կետեր նշելու համար:

Օրինակ, որոշ մարդիկ կարծում են, որ անհեթեթ է, որ մանկասայլակները փակցված են պիտակով, որը զգուշացնում է ձեզ չծալել մանկասայլակը, քանի դեռ երեխան նստած է գործիքի մեջ: Թեև նշանը, անշուշտ, տեղին է և պարտաճանաչորեն օգտակար, թվում է, որ տարրական ողջախոհությունն արդեն բավարար է:

Ո՞ր մարդն իր կամքով չի գիտակցի, որ նախ պետք է երեխային հեռացնել:

Դե, մյուսները շեշտում են, որ նման պիտակները իսկապես կարևոր նպատակի են ծառայում։ Նախ, ինչ-որ մեկը կարող է իսկապես մոռանալ, որ պետք է երեխային հեռացնել նախքան մանկասայլակը ծալելը: Հավանաբար, մարդը ենթադրում էր, որ մանկասայլակը խելամտորեն նախագծված է այնպես, որ ծալովի գործողությունը չվնասի երեխային: Կամ, հնարավոր է, կան ներկառուցված անվտանգության առանձնահատկություններ, որոնք թույլ չեն տալիս ծալվել, երբ մանկասայլակի մեջ երեխա կա: և այլն:

Նաև կարող էր լինել, որ անձը շեղված լիներ և անգիտակցաբար ծալած լիներ մանկասայլակը, ընդգրկելով երեխային և բոլորին, բայց պիտակը, բարեբախտաբար, դրդեց անձին դա չանել (ոմանք կպնդեն, որ քիչ հավանական է թվում, որ այդպիսի մարդը նկատի պիտակը ամեն դեպքում): Կա նաև այն, որ ինչ-որ մեկը կարող է դատի տալ մանկասայլակ արտադրողին, եթե այդպիսի պիտակ չլիներ: Դուք կարող եք պատկերացնել այն ծանր դատավարություններից մեկը, երբ երեխան վիրավորվեց, և ծնողը որոշեց հավաքել մեկ միլիոն դոլար, քանի որ մանկասայլակի վրա բացակայում էր նախազգուշացնող նշանը: Մանկասայլակների ընկերությունը կզղջա, որ չի ծախսել այն մի քանի ցենտները, որոնք անհրաժեշտ էին նախազգուշական նշանները իրենց մանկասայլակների վրա տեղադրելու համար:

Ուշադիր նայեք նաև վերջին նախազգուշական հաղորդագրություններին, որոնք ես վերը նշված էի:

Ես որոշեցի տեղադրել խելամիտ հաղորդագրությունը այն մասին, որ անպայման անտեսում եմ հաղորդագրությունը, քանի որ կան բազմաթիվ կեղծ նախազգուշացնող պիտակներ, որոնք մարդիկ գնում կամ պատրաստում են պարզապես զվարճանալու համար այս օրերին: Սա իսկական փիլիսոփայական խելքահան է։ Եթե ​​կարդում եք նախազգուշացումը, որն ասում է՝ անտեսել նախազգուշացումը, կոնկրետ ի՞նչ պետք է անեք նախազգուշացումը կարդալուց հետո: Դուք արդեն կարդացել եք այն, ուստի այն իբր ձեր մտքում է: Իհարկե, դուք կարող եք անտեսել այն, բայց նորից, ձեզ ընդհանրապես խորհուրդ չի տրվում, թե ինչն է, որ դուք պետք է անտեսեք: Կլոր ու կլոր, այս կատակը շարունակվում է:

Իհարկե, բարեխիղճ նախազգուշական պիտակները սովորաբար կատակային կամ հումորային բնույթ չեն կրում:

Ենթադրվում է, որ մենք բավականին լուրջ ենք վերաբերվում զգուշացումներին։

Սովորաբար, եթե դուք չեք հետևում նշված նախազգուշացմանը, դա անում եք անձնական ծանր ռիսկի տակ: Եվ, կարող է նաև լինել, որ եթե չհետևեք և չհամապատասխանեք նախազգուշացմանը, պոտենցիալ ուրիշներին նույնպես անհարկի ռիսկի կենթարկեք: Դիտարկենք մեքենա վարելու ակտը: Այն պահին, երբ դուք մեքենայի ղեկին եք, ձեր՝ որպես վարորդի գործողությունները կարող են վնասել ինքներդ ձեզ, գումարած՝ կարող եք վնասել ձեր ուղևորներին և կարող եք վնասել ուրիշներին, օրինակ՝ այլ մեքենաներում գտնվող մարդկանց կամ մոտակա հետիոտներին: Այդ իմաստով, նախազգուշացումը ոչ միայն ձեր օգտին է, այլ հավանական է նաև ուրիշների օգտին:

Ինչո՞ւ եմ ես ծածկում նախազգուշացումների և նախազգուշական պիտակների այս կողմերը:

Քանի որ ոմանք բուռն կերպով պնդում են, որ մեզ անհրաժեշտ են նախազգուշական և նախազգուշական նշաններ այսօրվա Արհեստական ​​ինտելեկտի (AI) վերաբերյալ:

Իրականում, հասկացությունն այն է, որ նման պիտակներ դնել այսօրվա և ապագա AI-ի վրա: Ընդհանուր առմամբ, ամբողջ AI-ն կավարտվի դրա հետ կապված նախազգուշացման կամ նախազգուշացման որևէ ձև կամ տարբերակ:

Լավ գաղափար, թե վատ գաղափար:

Գործնական, թե ոչ գործնական.

Եկեք առաջ գնանք և բացենք հայեցակարգը և տեսնենք, թե ինչ կարող ենք անել դրանից:

Ես կցանկանայի նախ որոշ էական հիմքեր դնել AI-ի և, մասնավորապես, AI-ի էթիկայի և AI օրենքի վերաբերյալ՝ դա անելով համոզվելու համար, որ AI նախազգուշացումների թեման համատեքստում խելամիտ կլինի: Ձեզանից նրանց համար, ովքեր ընդհանուր առմամբ հետաքրքրված են Էթիկական AI-ով և նաև AI օրենքով, տես իմ ընդարձակ և շարունակական լուսաբանումը հետևյալ հասցեով. հղումն այստեղ և հղումն այստեղ, պարզապես մի քանի անուն:

Էթիկական արհեստական ​​ինտելեկտի և նաև AI օրենքի մասին իրազեկության բարձրացում

AI-ի վերջին դարաշրջանը ի սկզբանե դիտվում էր որպես գոյություն AI For Good, ինչը նշանակում է, որ մենք կարող ենք AI-ն օգտագործել մարդկության բարելավման համար: -ի կրունկների վրա AI For Good եկավ այն գիտակցումը, որ մենք նույնպես խորասուզված ենք AI For Bad. Սա ներառում է արհեստական ​​ինտելեկտը, որը ստեղծվել կամ ինքնափոխվել է՝ դառնալով խտրական և կատարում է հաշվարկային ընտրություն՝ ներծծելով անհարկի կողմնակալություններ: Երբեմն արհեստական ​​ինտելեկտը կառուցվում է այդպես, մինչդեռ այլ դեպքերում այն ​​շեղվում է դեպի այդ անբարենպաստ տարածք:

Ես ուզում եմ առատորեն համոզվել, որ մենք նույն էջում ենք այսօրվա AI-ի բնույթի վերաբերյալ:

Այսօր չկա որևէ AI, որը զգայուն է: Մենք սա չունենք: Մենք չգիտենք, թե արդյոք հնարավո՞ր է խելացի AI-ն: Ոչ ոք չի կարող տեղին կանխագուշակել, թե արդյոք մենք կհասնենք խելամիտ AI-ին, և ոչ էլ արդյոք զգայական AI-ն ինչ-որ կերպ հրաշքով ինքնաբերաբար կառաջանա հաշվողական ճանաչողական գերնոր աստղի տեսքով (սովորաբար կոչվում է եզակիություն, տե՛ս իմ լուսաբանումը այստեղ. հղումն այստեղ).

AI-ի տեսակը, որի վրա ես կենտրոնանում եմ, բաղկացած է ոչ զգայուն AI-ից, որն այսօր ունենք: Եթե ​​մենք ցանկանայինք խելամիտ ենթադրություններ անել խելացի արհեստական ​​ինտելեկտի մասին, ապա այս քննարկումը կարող էր գնալ արմատապես այլ ուղղությամբ: Զգացող AI-ն ենթադրաբար մարդկային որակի կլիներ: Դուք պետք է հաշվի առնեք, որ զգայուն AI-ն մարդու ճանաչողական համարժեքն է: Ավելին, քանի որ ոմանք ենթադրում են, որ մենք կարող ենք ունենալ գերխելացի AI, կարելի է պատկերացնել, որ նման AI-ն կարող է ավելի խելացի լինել, քան մարդիկ (որպես հնարավոր է գերխելացի AI-ի իմ ուսումնասիրությունը տե՛ս. լուսաբանումն այստեղ).

Ես խստորեն կառաջարկեի, որ մենք ամեն ինչ ցած պահենք և հաշվի առնենք այսօրվա հաշվողական ոչ զգայուն AI-ն:

Գիտակցեք, որ այսօրվա AI-ն ի վիճակի չէ «մտածել» մարդկային մտածողությանը հավասար: Երբ դուք շփվում եք Alexa-ի կամ Siri-ի հետ, խոսակցական կարողությունները կարող են նման լինել մարդկային կարողություններին, բայց իրականությունն այն է, որ այն հաշվողական է և չունի մարդկային ճանաչողություն: AI-ի վերջին դարաշրջանը լայնորեն օգտագործել է մեքենայական ուսուցում (ML) և Deep Learning (DL), որոնք օգտագործում են հաշվողական օրինաչափությունների համընկնումը: Սա հանգեցրել է արհեստական ​​ինտելեկտի համակարգերի, որոնք ունեն մարդու նման հակումների տեսք: Միևնույն ժամանակ, այսօր չկա որևէ արհեստական ​​բանականություն, որն ունի ողջամտության նմանություն և ոչ էլ ունի ուժեղ մարդկային մտածողության ճանաչողական հրաշք:

Շատ զգույշ եղեք այսօրվա արհեստական ​​ինտելեկտը մարդաբանական դարձնելուց:

ML/DL-ը հաշվողական օրինաչափությունների համապատասխանության ձև է: Սովորական մոտեցումն այն է, որ դուք հավաքում եք տվյալներ որոշումներ կայացնելու առաջադրանքի վերաբերյալ: Դուք սնուցում եք տվյալները ML/DL համակարգչային մոդելների մեջ: Այդ մոդելները ձգտում են գտնել մաթեմատիկական օրինաչափություններ: Այդպիսի օրինաչափություններ գտնելուց հետո, եթե գտնվեն, ապա արհեստական ​​ինտելեկտի համակարգը կօգտագործի այդ օրինաչափությունները նոր տվյալների հանդիպելիս: Նոր տվյալների ներկայացումից հետո «հին» կամ պատմական տվյալների վրա հիմնված օրինաչափությունները կիրառվում են ընթացիկ որոշում կայացնելու համար:

Կարծում եմ, դուք կարող եք կռահել, թե ուր է սա գնում: Եթե ​​մարդիկ, ովքեր որոշումներ են կայացնում, իրենց մեջ ներդնում են անբարենպաստ կողմնակալություն, ապա հավանականությունն այն է, որ տվյալներն արտացոլում են դա նուրբ, բայց նշանակալի ձևերով: Մեքենայի ուսուցումը կամ խորը ուսուցման հաշվողական օրինաչափությունների համընկնումը պարզապես կփորձի համապատասխանաբար մաթեմատիկորեն նմանակել տվյալները: Առողջ դատողության կամ AI-ի կողմից ստեղծված մոդելավորման այլ զգալի ասպեկտներ ինքնին չկա:

Ավելին, AI մշակողները նույնպես կարող են չհասկանալ, թե ինչ է կատարվում: ML/DL-ի գաղտնի մաթեմատիկան կարող է դժվարացնել այժմ թաքնված կողմնակալությունների բացահայտումը: Դուք իրավամբ հույս կունենաք և ակնկալում եք, որ AI մշակողները կփորձարկեն պոտենցիալ թաղված կողմնակալության համար, թեև դա ավելի բարդ է, քան կարող է թվալ: Կա մեծ հավանականություն, որ նույնիսկ համեմատաբար լայնածավալ փորձարկումների դեպքում, ML/DL-ի օրինաչափություններին համապատասխանող մոդելներում դեռևս առկա կլինեն կողմնակալություններ:

Դուք կարող եք ինչ-որ չափով օգտագործել աղբի մեջ աղբի դուրս գալու հայտնի կամ տխրահռչակ ասացվածքը: Բանն այն է, որ սա ավելի շատ նման է կողմնակալություններին, որոնք նենգորեն ներարկվում են որպես AI-ի մեջ ընկղմված կողմնակալություններ: AI-ի որոշումների կայացման ալգորիթմը (ADM) աքսիոմատիկորեն ծանրաբեռնված է անհավասարություններով:

Ոչ լավ.

Այս ամենը ունի զգալի AI-ի էթիկայի հետևանքներ և առաջարկում է հարմար պատուհան դեպի քաղված դասեր (նույնիսկ մինչ բոլոր դասերը տեղի կունենան), երբ խոսքը վերաբերում է AI-ի օրենսդրական հաստատման փորձին:

Բացի արհեստական ​​ինտելեկտի էթիկայի կանոնների կիրառումից, ընդհանուր առմամբ, կա համապատասխան հարց, թե արդյոք մենք պետք է ունենանք AI-ի տարբեր կիրառություններ կարգավորող օրենքներ: Նոր օրենքներ են մշակվում դաշնային, նահանգային և տեղական մակարդակներում, որոնք վերաբերում են արհեստական ​​ինտելեկտի մշակման տիրույթին և բնույթին: Նման օրենքներ մշակելու և ընդունելու ջանքերը աստիճանաբար են ընթանում: AI-ի էթիկան ծառայում է որպես նվազագույնը հաշվի առնելով, և գրեթե անկասկած որոշ չափով ուղղակիորեն կներառվի այդ նոր օրենքներում:

Տեղյակ եղեք, որ ոմանք համառորեն պնդում են, որ մեզ պետք չեն նոր օրենքներ, որոնք ընդգրկում են արհեստական ​​ինտելեկտը, և որ մեր գործող օրենքները բավարար են: Նրանք նախազգուշացնում են, որ եթե մենք հաստատենք AI-ի այս օրենքներից մի քանիսը, մենք կսպանենք ոսկե սագին՝ ճնշելով արհեստական ​​ինտելեկտի առաջընթացը, որը հսկայական հասարակական առավելություններ է տալիս:

Նախորդ սյունակներում ես անդրադարձել եմ արհեստական ​​ինտելեկտը կարգավորող օրենքներ ստեղծելու և ընդունելու ազգային և միջազգային տարբեր ջանքերին, տես. հղումն այստեղ, օրինակ. Ես նաև անդրադարձել եմ արհեստական ​​ինտելեկտի էթիկայի տարբեր սկզբունքներին և ուղեցույցներին, որոնք տարբեր ազգեր հայտնաբերել և ընդունել են, ներառյալ, օրինակ, Միավորված ազգերի կազմակերպության ջանքերը, ինչպիսին է ՅՈՒՆԵՍԿՕ-ի Արհեստական ​​ինտելեկտի էթիկայի փաթեթը, որը ընդունել է մոտ 200 երկիր, տես. հղումն այստեղ.

Ահա AI համակարգերի վերաբերյալ Էթիկական AI չափանիշների կամ բնութագրերի օգտակար հիմնական ցուցակը, որը ես նախկինում մանրամասն ուսումնասիրել եմ.

  • Թափանցիկություն
  • Արդարություն և արդարություն
  • Ոչ չարամտություն
  • պատասխանատվություն
  • Գաղտնիության
  • Բարեգործություն
  • Ազատություն և ինքնավարություն
  • Վստահեք
  • Կայունություն
  • Արժանապատվություն
  • Համերաշխություն

Արհեստական ​​ինտելեկտի էթիկայի այդ սկզբունքները լրջորեն պետք է օգտագործվեն արհեստական ​​ինտելեկտի մշակողների կողմից, ինչպես նաև նրանք, ովքեր ղեկավարում են AI-ի զարգացման ջանքերը, և նույնիսկ նրանք, որոնք, ի վերջո, կիրառում և պահպանում են AI համակարգերը:

Բոլոր շահագրգիռ կողմերը AI-ի զարգացման և օգտագործման ողջ ցիկլի ընթացքում համարվում են Էթիկական AI-ի հաստատված նորմերին պահպանելու շրջանակում: Սա կարևոր կետ է, քանի որ սովորական ենթադրությունն այն է, որ «միայն կոդավորողները» կամ նրանք, ովքեր ծրագրավորում են AI-ն, ենթակա են հավատարիմ մնալու AI-ի էթիկայի հասկացություններին: Ինչպես նախկինում ընդգծվել է այստեղ, AI մշակելու և մշակելու համար անհրաժեշտ է գյուղ, և որի համար ամբողջ գյուղը պետք է տիրապետի և ենթարկվի AI-ի էթիկայի կանոններին:

Ես նաև վերջերս ուսումնասիրեցի AI իրավունքների օրինագիծ որը ԱՄՆ կառավարության պաշտոնական փաստաթղթի պաշտոնական վերնագիրն է` «Blueprint for an AI Bill of Rights. ) OSTP-ն դաշնային կազմակերպություն է, որը ծառայում է Ամերիկայի նախագահին և ԱՄՆ Գործադիր գրասենյակին ազգային նշանակության տարբեր տեխնոլոգիական, գիտական ​​և ինժեներական ասպեկտների վերաբերյալ խորհրդատվություն տալու համար: Այդ առումով կարելի է ասել, որ այս AI-ի իրավունքների օրինագիծը փաստաթուղթ է, որը հաստատվել և հաստատվել է ԱՄՆ գործող Սպիտակ տան կողմից:

AI-ի իրավունքների օրինագծում կան հինգ հիմնական կատեգորիաներ.

  • Անվտանգ և արդյունավետ համակարգեր
  • Ալգորիթմական խտրականության պաշտպանություն
  • Տվյալների գաղտնիություն
  • Ծանուցում և բացատրություն
  • Մարդկային այլընտրանքներ, նկատառում և հետընթաց

Ես ուշադիր վերանայել եմ այդ կանոնները, տես հղումն այստեղ.

Այժմ, երբ ես օգտակար հիմք եմ դրել այս առնչվող AI-ի էթիկայի և արհեստական ​​ինտելեկտի իրավունքի թեմաների վրա, մենք պատրաստ ենք անցնել բուռն թեմային, թե արդյոք AI-ն պետք է նախազգուշացնող պիտակներ ունենա, թե ոչ:

Պատրաստվեք աչքաբաց տեղեկատվական ճանապարհորդության:

Զգուշացնող պիտակներ դնել AI-ի վրա՝ որպես մարդկության պաշտպանության միջոց

Աճող աղմուկ է բարձրանում, որ միգուցե AI-ն պետք է գա ինչ-որ նախազգուշացումով:

Օրինակ, վերջերս հրապարակված հոդվածում MIT տեխնոլոգիաների ակնարկ որը քննարկում էր AI-ի աուդիտ անելու նկատմամբ աճող հետաքրքրությունը, առաջացավ նախազգուշական նշաններ տրամադրելու գաղափարը. «Այս աուդիտների աճը հուշում է, որ մի օր մենք կարող ենք տեսնել ծխախոտի տուփի նման նախազգուշացումներ, որ AI համակարգերը կարող են վնասել ձեր առողջությանը և անվտանգությանը: Մյուս ոլորտները, ինչպիսիք են քիմիական նյութերը և սննդամթերքը, կանոնավոր ստուգումներ են անցկացնում՝ ապահովելու համար, որ արտադրանքն անվտանգ է օգտագործման համար: Կարո՞ղ է նման բան դառնալ արհեստական ​​ինտելեկտի նորմա»: (MIT տեխնոլոգիաների ակնարկ, Melissa Heikkilä, 24 հոկտեմբերի, 2022):

Եկեք մի փոքր խոսենք նախազգուշացնող և նախազգուշական նշանների մասին:

Մենք բոլորս արդեն ընդհանուր առմամբ ծանոթ ենք առօրյա բնույթի բազմաթիվ ապրանքների և ծառայությունների նախազգուշացման և նախազգուշացման նշաններին: Երբեմն անվտանգության նշանները օրենքով սահմանված են որպես պարտադիր, իսկ այլ դեպքերում այդպիսի նշաններ օգտագործելու հայեցողություն կա: Բացի այդ, որոշ անվտանգության նշաններ ստանդարտացված են, օրինակ՝ սահմանված են ըստ ANSI Z535 ստանդարտի և OSHA 1910.14 ստանդարտի: Այդ ստանդարտները ներառում են այնպիսի ասպեկտներ, ինչպիսիք են նշանի ձևակերպումը, օգտագործվող գույներն ու տառատեսակները, նշանի ձևը և տարբեր այլ մանրամասներ։

Նման նախազգուշացնող նշանների ստանդարտներ ունենալը իմաստ ունի: Ամեն անգամ, երբ դուք տեսնում եք նման նշան, եթե այն համապատասխանում է նշված չափանիշներին, ավելի հավանական է, որ հավատաք, որ նշանը օրինական է, գումարած՝ ձեզ ավելի քիչ ճանաչողական մշակում է պահանջվում՝ վերլուծելու և նշանը հասկանալու համար: Այն նշանների համար, որոնք ստանդարտացված մոտեցում չունեն, դուք հաճախ պետք է մտովի հաշվարկեք, թե ինչ է ասում նշանը, միգուցե կորցնելով թանկարժեք ժամանակը գործողություններ ձեռնարկելու համար, կամ կարող եք ամբողջովին սխալ գնահատել նշանը և պատշաճ կերպով չհասկանալ նախազգուշացումը:

Նման նշանների մի շարք կարող են լինել, որոնց համար դրանք հաճախ դասակարգվում են այսպես.

  • Վտանգի նշան. Ամենաբարձր անհանգստությունը և անմիջական վտանգի մասին վկայող հավանական ծանր հետևանքներով
  • Զգուշացնող նշան. Նշում է վտանգի մասին, որն ավելի քիչ է, քան «վտանգը», բայց դեռևս բավականին լուրջ է
  • Զգուշության նշան. Ցույց է տալիս պոտենցիալ վտանգի մասին, որը «նախազգուշացումից» քիչ է, բայց դեռ իսկապես լուրջ է
  • Ծանուցման նշան. մատնանշում է տեղեկատվական նախազգուշացումը, որն ավելի քիչ է, քան «զգուշությունը», բայց դեռևս անհանգստացնող կողմեր ​​է պարունակում:

Հաշվի առնելով նախազգուշացումների և նախազգուշական նշանների մասին վերը նշված նախապատմությունը, մենք կարող ենք շարունակել և փորձել կիրառել դա համատեքստային առումով AI-ի օգտագործման համար:

Նախ, մենք կարող ենք ինչ-որ կերպ համաձայնվել, որ AI ցուցանակը կարող է լինել նույն խստության միջակայքում, ինչպես ընդունված է ամենօրյա նշանների դեպքում, այնպես որ.

  • AI վտանգի նշան. AI-ն ամենաբարձր մտահոգությունն է և վկայում է անմիջական վտանգի մասին՝ հավանական ծանր հետևանքներով
  • AI նախազգուշական նշան. AI-ն վկայում է վտանգի մասին, որը «վտանգից» քիչ է, բայց դեռևս բավականին լուրջ է
  • AI Նախազգուշական նշան. AI-ն վկայում է պոտենցիալ վտանգի մասին, որը «նախազգուշացումից» քիչ է, բայց դեռ իսկապես լուրջ
  • AI ծանուցման նշան. AI-ն մատնանշում է տեղեկատվական նախազգուշացումը, որը «զգուշությունից» պակաս է, բայց դեռևս անհանգստացնող կողմեր ​​է պարունակում

Էությունը այն է, որ ոչ բոլոր AI-ն կլինի նույնքան անհանգստացնող մտահոգություն: Կարող է լինել, որ AI-ն հսկայական ռիսկեր է պարունակում կամ ունի միայն սահմանային ռիսկեր: Համապատասխանաբար, ցուցանակը պետք է արտացոլի, թե որն է: Եթե ​​AI-ի բոլոր նախազգուշացումները կամ նախազգուշական նշանները պարզապես ցուցադրվեին որպես նույն տրամաչափի, մենք ենթադրաբար չգիտեինք կամ տեղյակ չէինք, արդյոք պետք է խիստ անհանգստանա՞նք, թե՞ մեղմ անհանգստանանք AI-ի վերաբերյալ: Տիպիկ ձևակերպման սխեմայի օգտագործումը կարող է հեշտացնել կյանքը AI-ի հետ կապված նախազգուշական նշաններ տեսնելիս և մեկնաբանելիս:

Դուք կարող եք մտածել, թե ուրիշ ինչ կասեն նշանները փոխանցվելիք հաղորդագրության առանձնահատկությունների առումով:

Դա, իհարկե, ավելի դժվար է լուծել: Վտանգավոր կամ մտահոգիչ համարվող բաներ անելու AI-ի հնարավորությունները չափազանց մեծ կլինեն, գրեթե անվերջ: Կարո՞ղ ենք դրանք եփել որոշակի սովորական հավաքածուի մեջ, որը յուրաքանչյուրը գրված է ընդամենը մի քանի բառով: Թե՞ մենք պետք է թույլ տանք ավելի ազատ մոտեցում, թե ինչպես կշարունակվեն ձեւակերպումները:

Ես ձեզ թույլ կտամ խորհել այդ բաց հարցի շուրջ:

Շարժվելով առաջ՝ մենք հակված ենք տեսնելու օբյեկտների վրա փակցված նախազգուշական նշաններ: AI համակարգը պարտադիր չէ, որ «օբյեկտ» լինի նույն իմաստով, ինչ սովորական նշանների տեղադրումը: Սա հարց է բարձրացնում, թե որտեղ են ներկայացվելու AI նախազգուշացնող նշանները։

Կարող է պատահել, որ երբ դուք գործարկում եք հավելված ձեր սմարթֆոնի վրա, ասեք, որ եթե այն օգտագործում է AI, ցույց կտա հաղորդագրություն, որը պարունակում է AI-ի հետ կապված նախազգուշացում: Հավելվածը կզգուշացնի ձեզ AI-ի հիմնական օգտագործման մասին: Սա կարող է լինել թռուցիկ հաղորդագրություն կամ կարող է ներկայացվել տարբեր տեսողական և նույնիսկ լսողական ձևերով:

Կա նաև այնպիսի իրավիճակ, երբ դուք օգտագործում եք AI-ի կողմից աջակցվող ծառայություն, թեև դուք կարող եք ուղղակիորեն չշփվել AI-ի հետ: Օրինակ, դուք կարող եք զրույց վարել մարդկային գործակալի հետ բնակարանային հիփոթեք ստանալու վերաբերյալ, որի համար գործակալը լուռ գտնվում է կուլիսների հետևում, օգտագործելով AI համակարգ՝ առաջնորդելու իրենց ջանքերը:

Այսպիսով, մենք պետք է ակնկալենք, որ AI նախազգուշացնող նշանները պետք է առկա լինեն AI-ի օգտագործման երկու դեպքում էլ, այնպես որ.

  • Արտադրանքի հատուկ AI: AI-ն որպես արտադրանք պետք է ունենա AI-ի բացահայտ նախազգուշացում կամ նախազգուշական նշաններ
  • Ծառայության վրա հիմնված AI: AI-ն որպես ծառայություն (ուղղակի կամ անուղղակի) պետք է ունենա AI նախազգուշացնող կամ նախազգուշացնող նշաններ

Թերահավատները, անշուշտ, շտապում են ենթադրել, որ AI նախազգուշացնող նշանը կարող է խորամանկորեն քողարկվել հավելված ստեղծողի կողմից, որպեսզի զգուշացումը հատկապես նկատելի չլինի: Միգուցե նախազգուշացումը հայտնվում է մի կարճ ակնթարթում, և դուք իսկապես չեք նկատում, որ այն ցուցադրվել է: Մեկ այլ նենգ հնարք կլինի դրանից մի տեսակ խաղ սարքելը, կարծես թե նվազեցնելով զգոնության լրջությունը և մարդկանց ստիպելով մտածել, որ նախազգուշացումը անհետևանք է:

Այո, դուք կարող եք գրեթե գրազ գալ, որ AI-ի հետ կապված ցանկացած նախազգուշական նշաններ կխաբվեն և կօգտագործվեն այնպիսի եղանակներով, որոնք չեն համապատասխանում նախազգուշական հաղորդագրությունների ոգուն և մտադրությանը, որոնք նրանք պետք է փոխանցեն:

Այս բոլոր թերահավատությունները կապված են այն բանի հետ, թե արդյոք մենք կօգտագործենք AI-ի էթիկան որպես «փափուկ օրենքներ»՝ փորձելով առաջ տանել AI-ի հետ կապված նախազգուշացումներն ու նախազգուշացումները, թե արդյոք մենք կօգտագործենք «կոշտ օրենքները», այդ թվում՝ ընդունված օրենքները դատարանի աջակցությամբ: Տեսականորեն, օրենքի մեղմ դրդումը թույլ կտա ավելի մեծ թվացյալ խաղալ այս հարցի հետ, մինչդեռ գրքերի վերաբերյալ օրենքները ներուժ կունենան կառավարության կիրարկման համար և կառաջացնեն ավելի մեծ խստություն:

Մեկ այլ մտահոգություն այն է, թե արդյոք արհեստական ​​ինտելեկտի նշանները, այնուամենայնիվ, որևէ տարբերություն կստեղծեն:

Սպառողների վարքագծի վերաբերյալ բազմաթիվ հետազոտություններ հակված են ցույց տալ խճճված արդյունքներ, երբ խոսքը սպառողների համար նախազգուշացնող պիտակներ տրամադրելու մասին է: Երբեմն զգուշացումներն արդյունավետ են, երբեմն՝ ոչ։ Եկեք կիրառենք այդ հետազոտություններից մի քանիսը AI համատեքստում:

Հաշվի առեք այս կողմերը.

  • Հայտնաբերում: Արդյո՞ք նրանք, ովքեր օգտագործում են AI, որը պարունակում է կենսունակ AI նախազգուշացնող նշան, ակտիվորեն կնկատե՞ն կամ կհայտնաբերե՞ն, որ այդ նշանը ցուցադրվում է իրենց (ենթադրելով, որ նման ազդանշան է եղել):
  • Ըմբռնում: Նրանց համար, ովքեր նկատել են, նրանք կհասկանա՞ն կամ կհասկանա՞ն, թե ինչ է փորձում իրենց հուշել AI նախազգուշացնող նշանը:
  • Action: Նրանց համար, ովքեր անում են այդ մտավոր թռիչքը, Արդյո՞ք արհեստական ​​ինտելեկտի նախազգուշացման նշանը նրանց կհուշի գործի, թե՞ այլ կերպ կծառայի համապատասխանաբար առաջնորդելու նրանց վարքագիծը:

Դուք կարող եք ակնկալել, որ եթե AI-ի նախազգուշական նշաններ ունենալու թափը մեծանա, հետազոտողները պատրաստվում են մանրակրկիտ ուսումնասիրել հարցը: Գաղափարը կլինի օգնել պարզաբանել, թե ինչ հանգամանքներում են նախազգուշացումներն օգտակար և երբ՝ ոչ: Սա իր հերթին վերաբերում է դիզայնին և ներգրավված տեսքին և զգացողությանը: Մենք կարող ենք նաև ակնկալել, որ լայն հանրությունը պետք է կրթվի կամ տեղեկացվի այս AI նախազգուշացնող և նախազգուշացնող նշանների ի հայտ գալու մասին, որպեսզի նրանք ընտելանան դրանց:

Կան բազմաթիվ շրջադարձեր, որոնք պետք է հաշվի առնել:

Արդյո՞ք արհեստական ​​ինտելեկտի նախազգուշացումը կամ նախազգուշացման նշանը պետք է հայտնվի միայն օգտագործվող հավելվածի սկզբում: Միգուցե ելակետն ինքնին բավարար չէ։ Մարդը կարող է առաջին հայացքից մտածել, որ հավելվածը պարզապես անվտանգ է խաղում՝ օգտագործելով նախազգուշացում, և այդպիսով շատ ուշադրություն չդարձնի նախազգուշացմանը: Հենց որ անձը հասնի հավելվածի օգտագործման կեսին, հնարավոր է, որ լրացուցիչ նախազգուշացում լինի: Այդ պահին անձը ավելի շատ տեղյակ է, թե ինչ է ձեռնարկում հավելվածը, և նրանք գուցե արդեն մոռացել են ավելի վաղ նշված նախազգուշացման մասին:

AI նախազգուշացումը կամ նախազգուշացումը կարող է տեղի ունենալ.

  • Հավելվածը սկսելուց առաջ և հենց այն ժամանակ, երբ հավելվածը պատրաստվում է գործարկվել
  • Ներկայացվում է հավելվածը սկսելուց հետո և միայն սկզբնական կետում
  • Ցուցադրվում է սկզբում և նորից կես ճանապարհին
  • Ցուցադրված է մի քանի անգամ AI-ի օգտագործման ընթացքում
  • Տրված է հավելվածի օգտագործման վերջում
  • Տրամադրել հավելվածից դուրս գալուց հետո և, հնարավոր է, նույնիսկ րոպեներ, ժամեր կամ օրեր անց
  • Etc.

Ի՞նչ եք կարծում, արհեստական ​​ինտելեկտն օգտագործող անձը պետք է հաստատի կամ ճանաչի նման AI նախազգուշացումներ կամ նախազգուշական նշաններ:

Ոմանք կպնդեն, որ անձից պետք է պահանջվի ընդունել, որ տեսել է նախազգուշացումները: Սա պոտենցիալ կկանխի նրանց, ովքեր կարող են հայտարարել, որ որևէ նախազգուշական հաղորդագրություն չի եղել: Դա կարող է նաև պատճառ հանդիսանալ, որ մարդիկ ավելի լուրջ վերաբերվեն հաղորդագրություններին՝ հաշվի առնելով, որ նրանցից խնդրում են հաստատել, որ պահպանել են նախազգուշացման ցուցումը:

Ահա ձեզ համար ծանր հարց.

Եթե բոլորը Արդյո՞ք AI-ն նախազգուշացում կամ անվտանգության ցուցում պետք է տա:

Դուք կարող եք պնդել, որ այո, բոլոր AI-ն պետք է ունենա սա: Նույնիսկ եթե AI-ն միայն անվտանգության սահմանային ռիսկ է, այն դեռ պետք է ունենա նախազգուշացնող նշան, հնարավոր է պարզապես ծանուցում կամ տեղեկատվական ցուցում: Մյուսները կվիճարկեն այս պնդումը: Նրանք կհակառակեին, որ դուք չափն եք անցնում: Սա ոչ բոլոր AI-ի կարիքն ունի: Ավելին, եթե ստիպեք բոլոր AI-ին ունենալ այն, դուք կթուլացնեք նպատակը: Մարդիկ կզգան նախազգուշացնող ցուցումները տեսնելուց: Ամբողջ մոտեցումը կդառնա ֆարս.

Հարակից տեսանկյունից, հաշվի առեք, թե ինչ կասեն AI ստեղծողները:

Տեսակետներից մեկն այն կլինի, որ սա ցավ է պատճառելու, թե ինչ պետք է դնել: Ձեր բոլոր AI համակարգերը փոխելը և այս հատկությունը ավելացնելը կարող է թանկ արժենալ: Դրա ավելացումը կանխավճարի հիման վրա կարող է ավելի քիչ ծախսատար լինել, թեև, այնուամենայնիվ, այս դրույթը ներառելու հետ կապված կա ծախս:

Մշուշոտությունը ևս մեկ հնարավոր բողոք է: Ինչպիսի՞ հաղորդագրություն պետք է ցուցադրվի: Եթե ​​ստանդարտներ չկան, դա նշանակում է, որ AI ստեղծողները պետք է նոր բան ստեղծեն: Սա ոչ միայն լրացուցիչ ծախս է անում, այլև, հնարավոր է, դուռը բացում է դատի տալու համար: Դուք կարող եք պատկերացնել, որ AI ստեղծողին կարող են վերաբերվել այն գործին, որ նրանց նախազգուշացումն այնքան էլ լավը չէ, որքան որոշ այլ AI համակարգեր: Փաստաբանները արդյունքում շփոթմունքից կկազմեն մի փաթեթ:

Մտահոգություն կա նաև, որ մարդիկ անտեղի կվախենան այս անվտանգության հաղորդագրություններից:

AI արտադրողը կարող է տեսնել օգտատերերի թվի կտրուկ անկում՝ անվտանգության հաղորդագրության պատճառով, որը պարզապես նախատեսված է տեղեկատվական զգուշացում տրամադրելու համար: Մարդիկ չեն իմանա, թե ինչ վերաբերվել հաղորդագրությանը: Եթե ​​նրանք նախկինում նման հաղորդագրություններ չեն տեսել, նրանք կարող են անմիջապես զայրանալ և խուսափել արհեստական ​​ինտելեկտի անտեղի օգտագործումից:

Ես նշում եմ այդ կողմերը, քանի որ ոմանք արդեն հայտարարում են, որ «չի կարող վնասել» սկսելը ներառել AI նախազգուշացումներ կամ անվտանգության հաղորդագրություններ: Նրանց համար գաղափարը նույնքան իդեալական է, որքան խնձորի կարկանդակը: Ոչ ոք չէր կարող լրջորեն հերքել AI-ի հետ կապված անվտանգության կամ նախազգուշացումների միշտ պահանջելու առավելությունները: Բայց, իհարկե, դա այդ հարցի վերաբերյալ իրական մտածելակերպ չէ:

Դուք նույնիսկ կարող եք ավելի հեռուն գնալ և պնդել, որ AI-ի նախազգուշական հաղորդագրությունները կարող են առաջացնել զանգվածային հիստերիա: Եթե ​​մենք հանկարծ սկսեինք ստիպել AI համակարգերին նման հաղորդագրություններ ունենալ, մարդիկ կարող էին սխալ ընկալել մտադրությունը: Տեսեք, կան բազմաթիվ հորդորներ, որ մենք բախվում ենք արհեստական ​​ինտելեկտի էկզիստենցիալ ճգնաժամի, որտեղ AI-ն պատրաստվում է տիրել աշխարհը և ոչնչացնել մարդկությանը, տես. հղումն այստեղ այդ տեսակի պահանջների իմ վերլուծության համար:

AI նախազգուշական հաղորդագրության օգտագործումը կարող է «ոգեշնչել» որոշ մարդկանց հավատալու, որ վերջը մոտ է: Ինչո՞ւ այլապես հաղորդագրությունները կհայտնվեին հիմա: Իհարկե, դա վկայում է այն մասին, որ վերջապես AI-ն պատրաստվում է դառնալ մեր ճնշող տիրակալը:

Ճիշտ բան անելու փորձի մի տեսակ հուսահատ մռայլ արդյունք՝ հանրությանը տեղեկացնելով, թե ինչպես կարող է AI-ն ներթափանցել խտրական կարողություններով կամ այլ կերպ: AI For Bad ասպեկտները:

Եզրափակում

Ամերիկացի հայտնի բանաստեղծ Ջեյմս Ռասել Լոուելը մի անգամ ասել է.

Ես բարձրաձայնում եմ բարձր դիտողությունը, որպեսզի մի քանի եզրափակիչ մեկնաբանություն անեմ AI նախազգուշացումների կամ անվտանգության հաղորդագրությունների վերաբերյալ:

Հավանականությունն այնպիսին է, որ քանի դեռ մենք որոշակիորեն լայնորեն գիտակցում ենք, որ AI-ն վատ արարքներ է անում, AI-ի հետ կապված նախազգուշական հաղորդագրությունների համար մեծ աղմուկ չի բարձրանա: Այն AI ստեղծողները, ովքեր կընտրեն կամավոր կերպով դա անել, հավանաբար կարժանանան գովասանքի, թեև նրանք կարող են նաև ակամայից հայտնվել անարդարացիորեն ոտնձգության մեջ: Որոշ փորձագետներ կարող են գնալ նրանց հետևից՝ օգտագործելով AI-ն, որը կարծես թե նախազգուշացումների կարիք ունի, միևնույն ժամանակ չհասկանալով, որ նրանք փորձում էին առաջնահերթ լինել, և AI մյուս բոլոր ստեղծողները հետ են մնում:

Անիծված եմ, եթե անես, գուցե չանիծվես, եթե չես անում:

Մեկ այլ նկատառում վերաբերում է այն, ինչ թվում է գեղեցիկ հայեցակարգային գաղափարը գործնական և օգտակար պրակտիկայի վերածելուն: Հեշտ է թափահարել ձեռքերը և անորոշ բղավել քամիներին, որ AI-ն պետք է նախազգուշական և անվտանգության հաղորդագրություններ ունենա: Դժվարը գալիս է այն ժամանակ, երբ որոշում ես, թե որոնք պետք է լինեն այդ հաղորդագրությունները, երբ և որտեղ դրանք պետք է ներկայացվեն, արդյոք դրանց արժեքը բավարար օգուտներ է բերում կամ ինչ չափով և այլն:

Այս թեմայով Ջեյմս Ռասել Լոուելին կտանք վերջին բառը (բանաստեղծական առումով) առայժմ.

Կռահեք, որ ժամանակն է թևերը ծալելու և այս ուղղությամբ աշխատելու: Եվ դա պարզապես նախազգուշացում չէ, դա գործողություն է:

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- նախազգուշացումներ-բոլոր-առկա-և-ապագա-ի մասին/