Արհեստական ​​ինտելեկտի էթիկան և արհեստական ​​ինտելեկտի օրենքը կշռում են AI-ի վերջերս հրապարակված իրավունքների օրինագիծը կյանքի կոչելու հիմնական ուղիները, ներառյալ և զարմանալիորեն՝ բացահայտորեն օգտագործելով AI

Կասկած չկա, որ մենք մեր առօրյա կյանքում գծագրերի կարիք ունենք:

Եթե ​​դուք պատրաստվում եք կառուցել ձեր վաղուց երազած այդ տունը, ապա խելամիտ կլինի նախ հավաքեք օգտագործելի նախագիծ:

Նախագիծը շոշափելի և փաստագրված կերպով ցուցադրում է այն, ինչ բաց աչքերով տեսլական կարող է փակված լինել ձեր նոգինում: Նրանք, ովքեր կոչված կլինեն կառուցելու ձեր նվիրական տունը, կկարողանան անդրադառնալ նախագծին և մանրամասնել, թե ինչպես կարելի է ավարտին հասցնել աշխատանքը: Նախագծերը հարմար են: Նախագծի բացակայությունը, անշուշտ, խնդրահարույց է ցանկացած բարդ գործի կամ նախագծի լուծման համար:

Եկեք տեղափոխենք այս փոքր-ինչ սենտիմենտալ, բայց իրական հարգանքի տուրքը նախագծերին դեպի Արհեստական ​​ինտելեկտի (AI) տիրույթ:

Ձեզանից նրանք, ովքեր հիմնականում տիրապետում են AI-ին, կարող են անորոշ տեղյակ լինել, որ կարևոր քաղաքականությունը նախագիծ Վերջերս թողարկվել է ԱՄՆ-ում, որը ակնհայտորեն վերաբերում է AI-ի ապագային: Ոչ պաշտոնապես հայտնի է որպես AI իրավունքների օրինագիծ, հռչակված սպիտակ թղթի պաշտոնական վերնագիրն է «Ստացված արհեստական ​​ինտելեկտի իրավունքի օրինագծի նախագիծ. ավտոմատացված համակարգերի գործադրում ամերիկյան ժողովրդի համար» և հեշտությամբ հասանելի է առցանց:

Փաստաթուղթը Գիտության և տեխնոլոգիաների քաղաքականության գրասենյակի (OSTP) մեկամյա ջանքերի և ուշադիր ուսումնասիրության արդյունք է: OSTP-ն դաշնային կազմակերպություն է, որը ստեղծվել է 1970-ականների կեսերին և ծառայում է խորհուրդներ տալու Ամերիկայի նախագահին և ԱՄՆ Գործադիր գրասենյակին ազգային նշանակության տարբեր տեխնոլոգիական, գիտական ​​և ինժեներական ասպեկտների վերաբերյալ: Այդ առումով կարելի է ասել, որ այս AI-ի իրավունքների օրինագիծը փաստաթուղթ է, որը հաստատվել և հաստատվել է ԱՄՆ գործող Սպիտակ տան կողմից:

AI-ի իրավունքների օրինագիծը պատկերում է մարդու իրավունքներ որը մարդկությունը պետք է ունենա՝ կապված մեր առօրյա կյանքում արհեստական ​​ինտելեկտի հայտնվելու հետ: Ես ընդգծում եմ այս ծանրակշիռ կետը, քանի որ որոշ մարդիկ սկզբում տարակուսում էին, որ միգուցե սա AI-ի իրավաբանական անձի կարգավիճակ ունենալու մի տեսակ ճանաչում էր, և որ սա խելացի արհեստական ​​ինտելեկտի և մարդանման ռոբոտների իրավունքների մի շարք էր: Ոչ, մենք դեռ այնտեղ չենք: Ինչպես մի պահ կտեսնեք, մենք ոչ մի տեղ մոտ չենք խելացի արհեստական ​​ինտելեկտին, չնայած դրոշի վերնագրերին, որոնք կարծես մեզ հակառակն են ասում:

Լավ, ուրեմն մեզ պետք է մի ծրագիր, որը հստակեցնում է մարդու իրավունքները արհեստական ​​ինտելեկտի դարաշրջանում:

Այո, մենք, ամենայն հավանականությամբ, անում ենք:

Ձեզ համարյա անհրաժեշտ կլինի փակվել քարանձավում և բացակայել ինտերնետ հասանելիությունից, որպեսզի չիմանաք, որ AI-ն արդեն և գնալով ավելի է ոտնձգում մեր իրավունքները: AI-ի վերջին դարաշրջանը ի սկզբանե դիտվում էր որպես գոյություն AI For Good, ինչը նշանակում է, որ մենք կարող ենք AI-ն օգտագործել մարդկության բարելավման համար: -ի կրունկների վրա AI For Good եկավ այն գիտակցումը, որ մենք նույնպես խորասուզված ենք AI For Bad. Սա ներառում է արհեստական ​​ինտելեկտը, որը ստեղծվել կամ ինքնափոխվել է՝ դառնալով խտրական և կատարում է հաշվարկային ընտրություն՝ ներծծելով անհարկի կողմնակալություններ: Երբեմն արհեստական ​​ինտելեկտը կառուցվում է այդպես, մինչդեռ այլ դեպքերում այն ​​շեղվում է դեպի այդ անբարենպաստ տարածք:

Արհեստական ​​ինտելեկտի իրավունքի, արհեստական ​​ինտելեկտի էթիկայի և այլ հիմնական AI տեխնոլոգիական և հասարակական միտումների իմ շարունակական և ընդարձակ լուսաբանման և վերլուծության համար տե՛ս. հղումն այստեղ և հղումն այստեղ, պարզապես մի քանի անուն:

AI-ի իրավունքների օրինագծի բացում

Ես նախկինում քննարկել եմ AI-ի իրավունքների օրինագիծը և այստեղ արագ ամփոփում կանեմ:

Որպես մի կողմ, եթե ցանկանում եք իմանալ վերջերս թողարկված AI Իրավունքների օրինագծի իմ դրական և բացասական կողմերը, ես մանրամասնել եմ իմ վերլուծությունը հրապարակման մեջ: ԻրավաբանՏես հղումն այստեղ. The Իրավաբան Հատկանշական իրավական նորությունների և մեկնաբանությունների առցանց կայք է, որը լայնորեն հայտնի է որպես մրցանակակիր իրավաբանական լրատվական ծառայություն, որը գործում է իրավաբանական ուսանող լրագրողների, խմբագիրների, մեկնաբանների, թղթակիցների և բովանդակության մշակողների համաշխարհային թիմի կողմից և գտնվում է Պիտսբուրգի համալսարանի դպրոցում։ Օրենքը Պիտսբուրգում, որտեղ այն սկսվել է ավելի քան 25 տարի առաջ: Գոռացեք ականավոր և աշխատասեր թիմին Իրավաբան.

AI-ի իրավունքների օրինագծում կան հինգ հիմնական կատեգորիաներ.

  • Անվտանգ և արդյունավետ համակարգեր
  • Ալգորիթմական խտրականության պաշտպանություն
  • Տվյալների գաղտնիություն
  • Ծանուցում և բացատրություն
  • Մարդկային այլընտրանքներ, նկատառում և հետընթաց

Ուշադրություն դարձրեք, որ ես դրանք չհամարակալեցի մեկից մինչև հինգ, քանի որ դա կարող է ենթադրել, որ դրանք որոշակի հաջորդականության մեջ են, կամ որ իրավունքներից մեկը կարծես թե ավելի կարևոր է, քան մյուսը: Կենթադրենք, որ դրանք յուրաքանչյուրն իր արժանիքներից է։ Նրանք բոլորն էլ ինչ-որ առումով հավասարապես վաստակաշատ են։

Որպես համառոտ ցուցում, թե ինչից է բաղկացած յուրաքանչյուրը, ահա մի հատված պաշտոնական սպիտակ թղթից.

  • Անվտանգ և արդյունավետ համակարգեր. «Դուք պետք է պաշտպանված լինեք ոչ անվտանգ կամ անարդյունավետ համակարգերից: Ավտոմատացված համակարգերը պետք է մշակվեն տարբեր համայնքների, շահագրգիռ կողմերի և ոլորտի փորձագետների խորհրդատվության միջոցով՝ բացահայտելու համակարգի մտահոգությունները, ռիսկերը և հնարավոր ազդեցությունները»:
  • Ալգորիթմական խտրականության պաշտպանություն«Դուք չպետք է խտրականության բախվեք ալգորիթմների կողմից, և համակարգերը պետք է օգտագործվեն և նախագծվեն արդար ձևով: Ալգորիթմական խտրականությունը տեղի է ունենում, երբ ավտոմատացված համակարգերը նպաստում են չհիմնավորված տարբեր վերաբերմունքին կամ մարդկանց անբարենպաստ ազդեցություններին՝ ելնելով նրանց ռասայից, գույնից, էթնիկ պատկանելությունից, սեռից (ներառյալ հղիությունը, ծննդաբերությունը և հարակից բժշկական պայմանները, գենդերային ինքնությունը, ինտերսեռական կարգավիճակը և սեռական կողմնորոշումը), կրոնը, տարիքը: , ազգային ծագում, հաշմանդամություն, վետերանի կարգավիճակ, գենետիկ տեղեկատվություն կամ օրենքով պաշտպանված ցանկացած այլ դասակարգում»։
  • Տվյալների գաղտնիություն. «Դուք պետք է պաշտպանված լինեք տվյալների չարաշահման պրակտիկայից ներկառուցված պաշտպանությունների միջոցով, և դուք պետք է ունենաք գործակալություն, թե ինչպես են օգտագործվում ձեր մասին տվյալները: Դուք պետք է պաշտպանված լինեք գաղտնիության խախտումներից՝ դիզայնի ընտրության միջոցով, որը երաշխավորում է, որ այդպիսի պաշտպանությունները ներառված են լռելյայնորեն, ներառյալ՝ ապահովելով, որ տվյալների հավաքագրումը համապատասխանում է ողջամիտ ակնկալիքներին, և որ հավաքվում են միայն տվյալ համատեքստի համար խիստ անհրաժեշտ տվյալները»:
  • Ծանուցում և բացատրություն. «Դուք պետք է իմանաք, որ օգտագործվում է ավտոմատացված համակարգ և հասկանաք, թե ինչպես և ինչու է այն նպաստում ձեզ վրա ազդող արդյունքներին: Ավտոմատ համակարգերի նախագծողները, մշակողները և տեղակայողները պետք է տրամադրեն ընդհանուր առմամբ մատչելի պարզ լեզվով փաստաթղթեր, ներառյալ համակարգի ընդհանուր գործունեության և ավտոմատացման դերի հստակ նկարագրությունը, ուշադրություն դարձնեն, որ այդպիսի համակարգերն օգտագործվում են, համակարգի համար պատասխանատու անհատը կամ կազմակերպությունը և բացատրություններ արդյունքներ, որոնք պարզ են, ժամանակին և հասանելի»:
  • Մարդկային այլընտրանքներ, նկատառում և հետընթաց«Դուք պետք է կարողանաք հրաժարվել, որտեղ անհրաժեշտ է, և մուտք ունենաք այն անձի հետ, ով կարող է արագ քննարկել և շտկել ձեր հանդիպած խնդիրները: Անհրաժեշտության դեպքում, դուք պետք է կարողանաք հրաժարվել ավտոմատացված համակարգերից՝ հօգուտ մարդկային այլընտրանքի»:

Մեծ հաշվով, սրանք մարդկության իրավունքների երեսակներ են, որոնք երկար ժամանակ շրջափակված են եղել արհեստական ​​ինտելեկտի էթիկայի և արհեստական ​​ինտելեկտի իրավունքի համատեքստում, տես իմ լուսաբանումը, օրինակ՝ հղումն այստեղ. Սպիտակ թուղթը, ըստ երևույթին, կախարդական ճանապարհով չի հանում նապաստակին գլխարկից, ինչպես նոր հայտնաբերված կամ հայտնաբերված իրավունքը, որը մինչ այժմ չի պարզաբանվել AI-ի դարաշրջանի համատեքստում:

Ամեն ինչ կարգին է.

Դուք կարող եք պնդել, որ դրանց հավաքումը մեկ կոկիկ փաթեթավորված և պաշտոնական հավաքածուի մեջ կենսական նշանակություն ունի: Բացի այդ, օծվելով որպես ճանաչված մարդ AI իրավունքների օրինագիծ, սա ավելի բացահայտորեն և հմտորեն մտցնում է ամբողջ հարցը հանրային ոլորտի գիտակցության մեջ։ Այն միավորում է գոյություն ունեցող տարբեր քննարկումների առատությունը մի եզակի հավաքածուի մեջ, որն այժմ կարող է շեփորվել և փոխանցվել բոլոր տեսակի շահագրգիռ կողմերին:

Թույլ տվեք առաջարկել այս բարենպաստ արձագանքների ցանկը հայտարարված AI իրավունքների օրինագծին.

  • Ապահովում է առանցքային սկզբունքների էական հավաքածու
  • Ծառայում է որպես նախագիծ կամ հիմք՝ հիմնվելու համար
  • Գործում է որպես գործողության ձայնային կոչ
  • Հետաքրքրություն է առաջացնում և ցույց է տալիս, որ դրանք լուրջ նկատառումներ են
  • Համախմբում է բազմաթիվ տարբեր քննարկումների
  • Կայծ է տալիս և նպաստում էթիկական AI-ի ընդունման ջանքերին
  • Անկասկած, սնվելու է AI-ի օրենքների հաստատմանը
  • այլ

Մենք նաև պետք է հաշվի առնենք ոչ այնքան բարենպաստ արձագանքները՝ հաշվի առնելով, որ դեռ շատ աշխատանք կա անելու, և որ սա ընդամենը երկար ճանապարհի սկիզբն է՝ կառավարելու արհեստական ​​ինտելեկտի ծանր ճանապարհով:

Որպես այդպիսին, ինչ-որ չափով կոշտ կամ, կարելի է ասել, կառուցողական քննադատությունները, որոնք արվում են AI-ի իրավունքների օրինագծի վերաբերյալ, ներառում են.

  • Իրավաբանորեն կիրառելի չէ և ամբողջովին պարտադիր չէ
  • Միայն խորհրդատվական և չհամարվող պետական ​​քաղաքականություն
  • Ավելի քիչ ընդգրկուն՝ համեմատած այլ հրատարակված աշխատանքների հետ
  • Հիմնականում բաղկացած է լայն հասկացություններից և զուրկ է իրականացման մանրամասներից
  • Դժվար կլինի վերածվել փաստացի կենսունակ գործնական օրենքների
  • Թվում է, թե լռում է որոշ համատեքստերում AI-ի հնարավոր արգելքի մասին
  • Մարգինալ կերպով ընդունում է AI-ի օգտագործման առավելությունները, որը լավ մշակված է
  • այլ

Թերևս ամենաակնառու սուր մեկնաբանությունը կենտրոնացած է այն փաստի վրա, որ այս AI-ի իրավունքների օրինագիծը օրինական ուժի մեջ չի մտնում և, հետևաբար, անիմաստ է, երբ խոսքը գնում է հստակ նպատակակետեր ստեղծելու մասին: Ոմանք ասել են, որ թեև սպիտակ թուղթը օգտակար և խրախուսող է, սակայն դրանում բացակայում են ատամները: Նրանք հարցականի տակ են դնում, թե ինչ կարող է առաջանալ սրամիտ պատվիրանների, ասես, խոռոչ ատամներով:

Քիչ անց կանդրադառնամ այդ կծու արտահայտություններին։

Միևնույն ժամանակ, սպիտակ թուղթը առատորեն նշում է AI-ի իրավունքների այս օրինագծի սահմանափակումները.

  • «AI-ի իրավունքների օրինագծի նախագիծը պարտադիր չէ և չի հանդիսանում ԱՄՆ կառավարության քաղաքականությունը: Այն չի փոխարինում, փոփոխում կամ ուղղորդում որևէ գործող կանոնադրության, կանոնակարգի, քաղաքականության կամ միջազգային փաստաթղթի մեկնաբանությունը: Այն չի հանդիսանում պարտադիր ուղեցույց հանրային կամ դաշնային գործակալությունների համար և, հետևաբար, չի պահանջում համապատասխանություն այստեղ նկարագրված սկզբունքներին: Նաև որոշիչ չէ, թե ինչպիսին կլինի ԱՄՆ կառավարության դիրքորոշումը որևէ միջազգային բանակցություններում: Այս սկզբունքների ընդունումը կարող է չհամապատասխանել գործող կանոնադրությունների, կանոնակարգերի, քաղաքականության կամ միջազգային փաստաթղթերի պահանջներին կամ դրանք կիրարկող դաշնային գործակալությունների պահանջներին: Այս սկզբունքները նախատեսված չեն և չեն արգելում կամ սահմանափակում պետական ​​գործակալության որևէ օրինական գործունեությունը, ներառյալ իրավապահ մարմինները, ազգային անվտանգությունը կամ հետախուզական գործունեությունը» (ըստ սպիտակ գրքի):

Նրանց համար, ովքեր շտապել են խախտել արհեստական ​​ինտելեկտի իրավունքների օրինագիծը՝ որպես իրավականորեն ոչ պարտադիր, եկեք մի փոքր մտքի փորձ անենք այդ խայթող մեղադրանքի վերաբերյալ: Ենթադրենք, սպիտակ թուղթը թողարկվեց և ուներ օրենքի ողջ ուժը: Ես համարձակվում եմ ասել, որ արդյունքը կլինի ինչ-որ չափով կատակլիզմային, գոնե այդ հռչակագրին իրավական և հասարակական արձագանքների չափով:

Օրենսդիրները կզզվեին, որ ջանքերը չեն ձեռնարկել նորմատիվ գործընթացներ և իրավական ընթացակարգեր՝ նման օրենքները կազմելու համար: Գործարարները, իրավամբ, կզայրանան, քանի որ նոր օրենքներ ի հայտ կգան առանց բավարար ծանուցման և իրազեկման, թե ինչ են այդ օրենքները: Ամեն տեսակի տարակուսանք և զայրույթ կառաջանային:

Արհեստական ​​ինտելեկտի դարաշրջանում մարդկության իրավունքների ամրապնդմանն ուղղված ձգտման լավ միջոց չէ:

Հիշեք, որ ես ավելի վաղ սկսել էի այս քննարկումը` վեր հանելով նախագծերի արժեքն ու կենսունակությունը:

Պատկերացրեք, որ ինչ-որ մեկը շրջանցել է գծագրերի պատրաստման փուլը և անմիջապես նետվել է ձեր երազանքի տունը կառուցելու համար: Ի՞նչ եք կարծում, ինչպիսի՞ տեսք կունենա տունը: Թվում է, թե արդարացի խաղադրույք է, որ տունը հատկապես չի համընկնի ձեր մտքում եղածի հետ: Արդյունքում տնամերձը կարող է լինել բացարձակ խառնաշփոթ:

Էությունը կայանում է նրանում, որ մեզ իսկապես անհրաժեշտ են նախագծեր, և մենք այժմ ունենք այդպիսին՝ AI-ի խելամիտ օրենքները պարզելու և էթիկական AI-ի ընդունումը հզորացնելու համար առաջ շարժվելու համար:

Հետևաբար, ես կցանկանայի անդրադառնալ այն ուղիներին, որոնցով այս AI-ի իրավունքների օրինագիծը կարող է տուն վերածվել, ասես,: Ինչպե՞ս ենք մենք պատրաստվում օգտագործել նախագիծը: Որո՞նք են հարմար հաջորդ քայլերը: Արդյո՞ք այս նախագիծը բավարար է, թե՞ ոսկորների վրա ավելի շատ միս է պետք:

Նախքան այդ լուրջ հարցերի մեջ անցնելը, ես կցանկանայի նախ համոզվել, որ մենք բոլորս նույն էջում ենք AI-ի բնույթի և այսօրվա կարգավիճակի մասին:

Անմիջապես ռեկորդ սահմանել այսօրվա AI-ի մասին

Կցանկանայի չափազանց ընդգծված հայտարարություն անել.

Պատրաստ եք?

Այսօր չկա որևէ AI, որը զգայուն է:

Մենք սա չունենք: Մենք չգիտենք, թե արդյոք հնարավո՞ր է խելացի AI-ն: Ոչ ոք չի կարող տեղին կանխագուշակել, թե արդյոք մենք կհասնենք խելացի արհեստական ​​ինտելեկտի, և ոչ էլ՝ արդյոք զգայական AI-ն ինչ-որ կերպ հրաշքով ինքնաբերաբար կառաջանա հաշվողական ճանաչողական գերնոր աստղի տեսքով (սովորաբար կոչվում է եզակիություն, տես իմ լուսաբանումը այստեղ. հղումն այստեղ).

AI-ի տեսակը, որի վրա ես կենտրոնանում եմ, բաղկացած է ոչ զգայուն AI-ից, որն այսօր ունենք: Եթե ​​մենք ցանկանայինք խելամիտ ենթադրություններ անել խելացի արհեստական ​​ինտելեկտի մասին, ապա այս քննարկումը կարող էր գնալ արմատապես այլ ուղղությամբ: Զգացող AI-ն ենթադրաբար մարդկային որակի կլիներ: Դուք պետք է հաշվի առնեք, որ զգայուն AI-ն մարդու ճանաչողական համարժեքն է: Ավելին, քանի որ ոմանք ենթադրում են, որ մենք կարող ենք ունենալ գերխելացի AI, կարելի է պատկերացնել, որ նման AI-ն կարող է ավելի խելացի լինել, քան մարդիկ (որպես հնարավոր է գերխելացի AI-ի իմ ուսումնասիրությունը տե՛ս. լուսաբանումն այստեղ).

Ես խստորեն կառաջարկեի, որ մենք ամեն ինչ ցած պահենք և հաշվի առնենք այսօրվա հաշվողական ոչ զգայուն AI-ն:

Գիտակցեք, որ այսօրվա AI-ն ի վիճակի չէ «մտածել» մարդկային մտածողությանը հավասար: Երբ դուք շփվում եք Alexa-ի կամ Siri-ի հետ, խոսակցական կարողությունները կարող են նման լինել մարդկային կարողություններին, բայց իրականությունն այն է, որ այն հաշվողական է և չունի մարդկային ճանաչողություն: AI-ի վերջին դարաշրջանը լայնորեն օգտագործել է մեքենայական ուսուցում (ML) և Deep Learning (DL), որոնք օգտագործում են հաշվողական օրինաչափությունների համընկնումը: Սա հանգեցրել է արհեստական ​​ինտելեկտի համակարգերի, որոնք ունեն մարդու նման հակումների տեսք: Միևնույն ժամանակ, այսօր չկա որևէ արհեստական ​​բանականություն, որն ունի ողջամտության նմանություն և ոչ էլ ունի ուժեղ մարդկային մտածողության ճանաչողական հրաշք:

Շատ զգույշ եղեք այսօրվա արհեստական ​​ինտելեկտը մարդաբանական դարձնելուց:

ML/DL-ը հաշվողական օրինաչափությունների համապատասխանության ձև է: Սովորական մոտեցումն այն է, որ դուք հավաքում եք տվյալներ որոշումներ կայացնելու առաջադրանքի վերաբերյալ: Դուք սնուցում եք տվյալները ML/DL համակարգչային մոդելների մեջ: Այդ մոդելները ձգտում են գտնել մաթեմատիկական օրինաչափություններ: Այդպիսի օրինաչափություններ գտնելուց հետո, եթե գտնվեն, ապա արհեստական ​​ինտելեկտի համակարգը կօգտագործի այդ օրինաչափությունները նոր տվյալների հանդիպելիս: Նոր տվյալների ներկայացումից հետո «հին» կամ պատմական տվյալների վրա հիմնված օրինաչափությունները կիրառվում են ընթացիկ որոշում կայացնելու համար:

Կարծում եմ, դուք կարող եք կռահել, թե ուր է սա գնում: Եթե ​​մարդիկ, ովքեր որոշումներ են կայացնում, իրենց մեջ ներդնում են անբարենպաստ կողմնակալություն, ապա հավանականությունն այն է, որ տվյալներն արտացոլում են դա նուրբ, բայց նշանակալի ձևերով: Մեքենայի ուսուցումը կամ խորը ուսուցման հաշվողական օրինաչափությունների համընկնումը պարզապես կփորձի համապատասխանաբար մաթեմատիկորեն նմանակել տվյալները: Առողջ դատողության կամ AI-ի կողմից ստեղծված մոդելավորման այլ զգալի ասպեկտներ ինքնին չկա:

Ավելին, AI մշակողները նույնպես կարող են չհասկանալ, թե ինչ է կատարվում: ML/DL-ի գաղտնի մաթեմատիկան կարող է դժվարացնել այժմ թաքնված կողմնակալությունների բացահայտումը: Դուք իրավամբ հույս կունենաք և ակնկալում եք, որ AI մշակողները կփորձարկեն պոտենցիալ թաղված կողմնակալության համար, թեև դա ավելի բարդ է, քան կարող է թվալ: Կա մեծ հավանականություն, որ նույնիսկ համեմատաբար լայնածավալ փորձարկումների դեպքում, ML/DL-ի օրինաչափություններին համապատասխանող մոդելներում դեռևս առկա կլինեն կողմնակալություններ:

Դուք կարող եք ինչ-որ չափով օգտագործել աղբի մեջ աղբի դուրս գալու հայտնի կամ տխրահռչակ ասացվածքը: Բանն այն է, որ սա ավելի շատ նման է կողմնակալություններին, որոնք նենգորեն ներարկվում են որպես AI-ի մեջ ընկղմված կողմնակալություններ: AI-ի որոշումների կայացման ալգորիթմը (ADM) աքսիոմատիկորեն ծանրաբեռնված է անհավասարություններով:

Ոչ լավ.

Այս ամենը ունի զգալի AI-ի էթիկայի հետևանքներ և առաջարկում է հարմար պատուհան դեպի քաղված դասեր (նույնիսկ մինչ բոլոր դասերը տեղի կունենան), երբ խոսքը վերաբերում է AI-ի օրենսդրական հաստատման փորձին:

Բացի արհեստական ​​ինտելեկտի էթիկայի կանոնների կիրառումից, ընդհանուր առմամբ, կա համապատասխան հարց, թե արդյոք մենք պետք է ունենանք AI-ի տարբեր կիրառություններ կարգավորող օրենքներ: Նոր օրենքներ են մշակվում դաշնային, նահանգային և տեղական մակարդակներում, որոնք վերաբերում են արհեստական ​​ինտելեկտի մշակման տիրույթին և բնույթին: Նման օրենքներ մշակելու և ընդունելու ջանքերը աստիճանաբար են ընթանում: AI-ի էթիկան ծառայում է որպես նվազագույնը հաշվի առնելով, և գրեթե անկասկած որոշ չափով ուղղակիորեն կներառվի այդ նոր օրենքներում:

Տեղյակ եղեք, որ ոմանք համառորեն պնդում են, որ մեզ պետք չեն նոր օրենքներ, որոնք ընդգրկում են արհեստական ​​ինտելեկտը, և որ մեր գործող օրենքները բավարար են: Նրանք նախազգուշացնում են, որ եթե մենք հաստատենք AI-ի այս օրենքներից մի քանիսը, մենք կսպանենք ոսկե սագին՝ ճնշելով արհեստական ​​ինտելեկտի առաջընթացը, որը հսկայական հասարակական առավելություններ է տալիս:

Նախորդ սյունակներում ես անդրադարձել եմ արհեստական ​​ինտելեկտը կարգավորող օրենքներ ստեղծելու և ընդունելու ազգային և միջազգային տարբեր ջանքերին, տես. հղումն այստեղ, օրինակ. Ես նաև անդրադարձել եմ արհեստական ​​ինտելեկտի էթիկայի տարբեր սկզբունքներին և ուղեցույցներին, որոնք տարբեր ազգեր հայտնաբերել և ընդունել են, ներառյալ, օրինակ, Միավորված ազգերի կազմակերպության ջանքերը, ինչպիսին է ՅՈՒՆԵՍԿՕ-ի Արհեստական ​​ինտելեկտի էթիկայի փաթեթը, որը ընդունել է մոտ 200 երկիր, տես. հղումն այստեղ.

Ահա AI համակարգերի վերաբերյալ Էթիկական AI չափանիշների կամ բնութագրերի օգտակար հիմնական ցուցակը, որը ես նախկինում մանրամասն ուսումնասիրել եմ.

  • Թափանցիկություն
  • Արդարություն և արդարություն
  • Ոչ չարամտություն
  • պատասխանատվություն
  • Գաղտնիության
  • Բարեգործություն
  • Ազատություն և ինքնավարություն
  • Վստահեք
  • Կայունություն
  • Արժանապատվություն
  • Համերաշխություն

Արհեստական ​​ինտելեկտի էթիկայի այդ սկզբունքները լրջորեն պետք է օգտագործվեն արհեստական ​​ինտելեկտի մշակողների կողմից, ինչպես նաև նրանք, ովքեր ղեկավարում են AI-ի զարգացման ջանքերը, և նույնիսկ նրանք, որոնք, ի վերջո, կիրառում և պահպանում են AI համակարգերը:

Բոլոր շահագրգիռ կողմերը AI-ի զարգացման և օգտագործման ողջ կյանքի ցիկլի ընթացքում համարվում են Էթիկական AI-ի հաստատված նորմերին պահպանելու շրջանակում: Սա կարևոր կարևոր կետ է, քանի որ սովորական ենթադրությունն այն է, որ «միայն կոդավորողները» կամ նրանք, ովքեր ծրագրավորում են AI-ն, ենթակա են հավատարիմ մնալու AI-ի էթիկայի հասկացություններին: Ինչպես նախկինում ընդգծվել է այստեղ, AI-ի մշակման և մշակման համար անհրաժեշտ է գյուղ, և որի համար ամբողջ գյուղը պետք է տիրապետի և ենթարկվի AI-ի էթիկայի կանոններին:

Այժմ, երբ ես օգտակար հիմք եմ ստեղծել, մենք պատրաստ ենք ավելի խորանալ արհեստական ​​ինտելեկտի իրավունքների օրինագծի մեջ:

Արհեստական ​​ինտելեկտի իրավունքների օրինագիծը կյանքի կոչելու չորս հիմնական ուղիներ

Ինչ-որ մեկը ձեզ տալիս է նախագիծ և ասում, որ գնա աշխատանքի:

Ինչ եք անում?

Արհեստական ​​ինտելեկտի իրավունքների օրինագծի դեպքում՝ որպես նախագիծ, հաշվի առեք առաջ շարժվելու այս չորս կարևոր քայլերը.

  • Ծառայել որպես ներդրում AI օրենքների ձևակերպման համար. Օգտագործեք նախագիծը, որպեսզի օգնեք ձևակերպել AI օրենքները, հուսով ենք դա անել դաշնային, նահանգային և տեղական մակարդակներում համահունչ հիմունքներով (գուցե նաև օգնելով AI-ի միջազգային իրավական ջանքերին):
  • Օգնում է ձեռք բերել AI-ի էթիկայի ավելի լայն տարածում. Օգտագործեք նախագիծը AI-ի էթիկայի ձևակերպումները խթանելու համար (երբեմն կոչվում են «փափուկ օրենքներ»՝ համեմատած իրավաբանորեն պարտավորեցնող «կոշտ օրենքների» հետ), դա անելով՝ ոգեշնչելու և առաջնորդելու բիզնեսին, անհատներին, պետական ​​կառույցներին և այլ ընտրական մարմիններին դեպի ավելի լավ և հետևողական էթիկայի կանոններ։ AI արդյունքները.
  • Ձևավորել AI զարգացման գործունեությունը. Օգտագործեք նախագիծը՝ AI-ի զարգացման մեթոդոլոգիաների և վերապատրաստման ասպեկտների ստեղծմանը խթանելու համար՝ փորձելով հասնել AI ծրագրավորողներին և նրանց, ովքեր զբաղվում են կամ օգտագործում են AI, որպեսզի ավելի լավ իմանան, թե ինչպես կարելի է AI մշակել AI-ի էթիկայի ցանկալի սկզբունքների համաձայն և ակնկալելով: AI-ի մոտալուտ օրենքների ընդունման մասին:
  • Մոտիվացնել AI-ի գալուստը՝ օգնելու AI-ի վերահսկմանը. Օգտագործեք նախագիծը՝ AI մշակելու համար, որը կօգտագործվի՝ փորձելու և ծառայելու որպես հակակշիռ այլ AI-ի դեմ, որոնք կարող են շեղվել դեպի անբարենպաստ տարածք: Սա այն մակրոսկոպիկ տեսակետներից մեկն է, որով մենք կարող ենք օգտագործել հենց այն, ինչը մեզ թվում է, թե անհանգստացնում է նաև (հեգնականորեն, կարելի է ասել) մեզ պաշտպանելու համար:

Ես քննարկել եմ վերոհիշյալ չորս քայլերից յուրաքանչյուրը իմ սյունակի հրապարակումների ընթացքում:

Այս քննարկման համար ես կցանկանայի կենտրոնանալ թվարկված չորրորդ քայլի վրա, այն է, որ AI-ի իրավունքների օրինագիծը կարող է խթան հանդիսանալ AI-ի ի հայտ գալուն՝ օգնելու AI-ի վերահսկմանը: Սա ինչ-որ չափով ցնցող կամ զարմանալի քայլ է շատերի համար, ովքեր դեռ ամբողջությամբ չեն մտել այս AI-ի առաջխաղացման ոլորտում:

Թույլ տվեք մանրամասնել.

Պարզ անալոգիան պետք է օգնի: Մենք բոլորս այս օրերին սովոր ենք կիբերանվտանգության խախտումներին և հաքերների ներխուժմանը: Գրեթե ամեն օր մենք լսում ենք կամ ենթարկվում ենք մեր համակարգիչների վերջին բացթողումների, որոնք թույլ կտան չար չարագործներին խլել մեր տվյալները կամ տեղադրել մեր նոթբուքերի վրա փրկագինի ահավոր մի կտոր:

Այդ նողկալի փորձերի դեմ պայքարի միջոցներից մեկը մասնագիտացված ծրագրաշարի օգտագործումն է, որը փորձում է կանխել այդ ներխուժումները: Դուք գրեթե անկասկած ունեք հակավիրուսային ծրագրային փաթեթ ձեր համակարգչում տանը կամ աշխատավայրում: Ձեր սմարթֆոնի վրա, ամենայն հավանականությամբ, նման բան կա, անկախ նրանից՝ գիտակցում եք, որ այն այնտեղ է, թե ոչ:

Իմ միտքն այն է, որ երբեմն անհրաժեշտ է կրակի դեմ պայքարել կրակով (տե՛ս այս մասին իմ լուսաբանումը, ինչպես օրինակ՝ ժամը հղումն այստեղ և հղումն այստեղ).

Ինտելեկտուալ արհեստական ​​ինտելեկտի դեպքում, որը հայտնվում է բանավոր տիրույթում AI For Bad, մենք կարող ենք ձգտել օգտագործել AI For Good որը պայքարում է այդ չարամիտության հետ AI For Bad. Սա, իհարկե, հրաշք բուժում չէ: Ինչպես գիտեք, շարունակական կատվի ու մկնիկի խաղ է տեղի ունենում չարագործների միջև, ովքեր ձգտում են ներխուժել մեր համակարգիչները և կիբերանվտանգության պաշտպանության ոլորտում առաջընթացը: Դա գրեթե անվերջ խաղ է:

Մենք կարող ենք օգտագործել AI-ն՝ փորձելով զբաղվել AI-ի հետ, որն անցել է արգելված ճանապարհով: Դա անելը կօգնի։ Դա հատկապես արծաթե փամփուշտ չի լինի, քանի որ անբարենպաստ AI-ն, որը թիրախավորվում է, գրեթե անկասկած կստեղծվի նման պաշտպանություններից խուսափելու համար: Սա կլինի շարունակական կատու-մուկ AI-ի ընդդեմ AI-ի:

Ամեն դեպքում, AI-ն, որը մենք օգտագործում ենք մեզ պաշտպանելու համար, որոշակի պաշտպանություն կապահովի վատ AI-ից: Այսպիսով, մենք անկասկած պետք է մշակենք AI, որը կարող է պաշտպանել կամ պաշտպանել մեզ: Եվ մենք պետք է նաև ձգտենք ստեղծել պաշտպանիչ AI, որպեսզի հարմարվի, քանի որ վատ AI-ն հարմարվում է: Կլինի կայծակնային արագությամբ կատվի ու մկնիկի կատաղի տեսք:

Ոչ բոլորն են վայելում AI-ի դերի այս ընդլայնումը:

Նրանք, ովքեր AI-ն արդեն ընկալում են որպես միատարր ամորֆ կոնգլոմերացիա, կսկսեն սարսափել և մղձավանջներ ստանալ այս կեղծված AI-ի դեմ AI գամբիտի ժամանակ: Եթե ​​մենք փորձում ենք կրակը կրակի դեմ հանել, միգուցե մենք պարզապես ավելի մեծ կրակ ենք վառում: AI-ն դառնալու է հսկայական խարույկ, որը մենք այլևս չենք վերահսկում և կընտրենք մարդկությանը ստրկացնել կամ ջնջել մեզ մոլորակից: Երբ խոսքը վերաբերում է AI-ի որպես էկզիստենցիալ ռիսկի քննարկմանը, մեզ սովորաբար ստիպում են հավատալ, որ ամբողջ AI-ն կհամախմբվի, տեսեք այս հարցերի վերաբերյալ իմ քննարկումը այստեղ. հղումն այստեղ. Տեսեք, մեզ ասում են, որ արհեստական ​​ինտելեկտի յուրաքանչյուր կտոր կբռնի իր եղբայրական արհեստական ​​ինտելեկտը և կդառնա մեկ մեծ գերիշխան միասնական ընտանիք:

Դա ահավոր և վճռականորեն անհանգստացնող սցենարն է զգայուն AI-ի, որպես անխափան բոլորը մեկի համար և մեկը բոլորի համար մաֆիայի:

Թեև դուք կարող եք ազատորեն նման ենթադրություններ անել այն մասին, որ դա մի օր կարող է տեղի ունենալ, ես վստահեցնում եմ ձեզ, որ առայժմ AI-ն, որը մենք ունենք, բաղկացած է բեռնատարներով անջատված տարբեր AI ծրագրերից, որոնք չունեն միմյանց հետ դավադրության հատուկ միջոց:

Այս ասելով, ես վստահ եմ, որ նրանք, ովքեր ջերմեռանդորեն հավատում են AI-ի դավադրության տեսություններին, կպնդեն, որ ես նպատակաուղղված եմ ասել դա՝ ճշմարտությունը թաքցնելու համար: Ահա՜ Միգուցե ինձ վարձատրում է այսօրվա AI-ն, որն արդեն պլանավորում է AI-ի մեծ գրավումը (այո, պարոն ջան, երբ AI-ի տիրակալները իշխեն, ես հարստությունների մեջ եմ լողանալու): Կամ, և ես, ամենայն հավանականությամբ, չեմ կողմնորոշվում այս այլ տեսանկյունից, գուցե ես կուրորեն տեղյակ չեմ, թե ինչպես է AI-ն գաղտնի դավադրություններ անում մեր թիկունքում: Ենթադրում եմ, որ մենք պետք է սպասենք և տեսնենք՝ ես AI-ի հեղաշրջման մաս եմ, թե՞ արհեստական ​​ինտելեկտի վատթարացած մարդ (վայ, դա ցավում է):

Վերադառնալով երկրային նկատառումներին՝ եկեք համառոտ ուսումնասիրենք, թե ինչպես կարելի է ժամանակակից AI-ն օգտագործել՝ օգնելու AI-ի իրավունքների օրինագծի իրականացմանը: Ես հարմար և համառոտ կանդրադառնամ դրան որպես Լավ AI.

Մենք կօգտագործենք AI-ի իրավունքների օրինագծում ներառված հինգ հիմնաքարերը.

  • Լավ AI խթանման համար Անվտանգ և արդյունավետ համակարգեր: Ամեն անգամ, երբ դուք ենթարկվում եք կամ օգտագործում եք AI համակարգ, Good AI-ն փորձում է պարզել, թե արդյոք օգտագործվող AI-ն անվտանգ է կամ անարդյունավետ: Նման հայտնաբերման դեպքում լավ AI-ն կարող է զգուշացնել ձեզ կամ ձեռնարկել այլ գործողություններ, ներառյալ վատ AI-ի արգելափակումը:
  • Լավ AI տրամադրելու համար Ալգորիթմական խտրականության պաշտպանություն: AI համակարգ օգտագործելիս, որը կարող է պարունակել խտրական ալգորիթմներ, Լավ AI փորձում է պարզել, թե արդյոք ձեզ համար չկա՞ն համապատասխան պաշտպանություններ, և փորձում է որոշել, թե արդյո՞ք անհարկի կողմնակալություններ իսկապես գոյություն ունեն օգտագործվող AI-ում: Լավ AI-ն կարող է տեղեկացնել ձեզ և նաև պոտենցիալ ավտոմատ կերպով զեկուցել այլ AI-ի մասին տարբեր մարմիններին, ինչպես դա կարող է նախատեսված լինել AI-ի օրենքներով և իրավական պահանջներով:
  • Լավ AI պահպանման համար Տվյալների գաղտնիությունը: Լավ AI-ի այս տեսակը փորձում է պաշտպանել ձեզ տվյալների գաղտնիության ներխուժումից: Երբ մեկ այլ AI-ն փորձում է պահանջել տվյալներ, որոնք, հնարավոր է, իրականում ձեզանից անհրաժեշտ չեն, լավ AI-ն ձեզ տեղյակ կպահի գերազանցող գործողությունների մասին: Լավ AI-ն կարող է նաև պոտենցիալ քողարկել ձեր տվյալները այնպես, որ մյուս AI-ին սնվելուց հետո կպահպանեն ձեր տվյալների գաղտնիության իրավունքները: և այլն:
  • Լավ AI հաստատման համար Ծանուցում և բացատրություն: Մենք բոլորս, ամենայն հավանականությամբ, կհանդիպենք AI համակարգերի, որոնք խիստ պակասում են պատշաճ և համապատասխան ծանուցումներ տրամադրելու հարցում, և որոնք, ցավոք, չեն կարողանում պատշաճ բացատրություն ցույց տալ իրենց գործողությունների համար: Լավ AI-ն կարող է փորձել մեկնաբանել կամ հարցաքննել մյուս AI-ն՝ դա անելով պոտենցիալ բացահայտելու ծանուցումները և բացատրությունները, որոնք պետք է տրված լինեին: Նույնիսկ եթե դա հնարավոր չէ անել տվյալ դեպքում, Good AI-ն առնվազն կզգուշացնի ձեզ մյուս AI-ի ձախողումների մասին և, հնարավոր է, AI-ի մասին զեկուցի նշանակված մարմիններին՝ հիմնվելով AI-ի սահմանված օրենքների և իրավական պահանջների վրա:
  • Լավ AI առաջարկելու համար Մարդկային այլընտրանքներ, նկատառում և հետընթաց: Ենթադրենք, որ դուք օգտագործում եք AI համակարգ, և AI-ն կարծես թե չի համապատասխանում առաջադրանքին: Դուք կարող եք չհասկանալ, որ ամեն ինչ վատ է ընթանում, կամ կարող եք որոշ չափով զգուշանալ և վստահ չլինեք, թե ինչ անել իրավիճակի հետ կապված: Նման դեպքում Good AI-ն լուռ կուսումնասիրի, թե ինչ է անում մյուս AI-ն և կարող է զգուշացնել ձեզ այդ AI-ի վերաբերյալ կենսական մտահոգությունների մասին: Այնուհետև ձեզ կառաջարկվի պահանջել AI-ի մարդկային այլընտրանք (կամ Լավ AI-ն կարող է դա անել ձեր անունից):

Հասկանալու համար, թե ինչպես է այս տեսակը Լավ AI կարող է մշակվել և հրապարակվել, տես իմ հանրաճանաչ և բարձր վարկանիշով AI գիրքը (պատիվ ունեմ ասելու, որ այն նշվել է որպես «Տասը լավագույն») այն մասին, ինչ ես սովորաբար անվանում էի AI-ի պահապան հրեշտակներ, տես. հղումն այստեղ.

Եզրափակում

Ես գիտեմ, թե ինչ ես մտածում։ Եթե ​​մենք ունենք Լավ AI, որը ստեղծվել է մեզ պաշտպանելու համար, ենթադրենք, որ Լավ AI-ն կոռումպացված է՝ դառնալով Վատ AI: Լատինական հայտնի կամ տխրահռչակ արտահայտությունը լիովին տեղին է թվում այս հնարավորությանը. Որո՞նք են պահառու ipsos custodes?

Արտահայտությունը վերագրվում է հռոմեացի բանաստեղծ Յուվենալին և կարելի է գտնել նրա աշխատության մեջ, որը վերնագրված է Երգիծանքներ, և կարող է անփույթ թարգմանվել որպես նշանակում, թե ով է հսկելու կամ հսկելու պահակներին: Շատ ֆիլմեր և հեռուստաշոուներ, ինչպիսիք են Star Trek բազմիցս օգտագործել են այս գիծը:

Դա, անշուշտ, այն պատճառով, որ դա հիանալի կետ է:

Իհարկե, AI-ի ցանկացած օրենք, որը ուժի մեջ է մտնում, պետք է ներառի և՛ վատ AI-ն, և՛ նույնիսկ լավ AI-ն, որը վատանում է: Ահա թե ինչու շատ կարևոր կլինի խելամիտ և համապարփակ AI օրենքներ գրելը: Օրենսդիրները, որոնք պարզապես փորձում են պատահական օրինականներ նետել պատին և հուսով են, որ այն կպչում է արհեստական ​​ինտելեկտի օրենքներին, իրենք իրենց խորապես բաց կթողնեն թիրախը:

Մեզ դա պետք չէ։

Մենք ոչ ժամանակ ունենք, ոչ էլ կարող ենք կրել հասարակության ծախսերը՝ հաղթահարելու ոչ համարժեք AI օրենքները: Ես նշել եմ, որ ցավոք, երբեմն մենք ականատես ենք լինում արհեստական ​​ինտելեկտի հետ կապված նոր օրենքների, որոնք վատ կազմված են և լցված են բոլոր տեսակի իրավական հիվանդություններով, օրինակ՝ տես Նյու Յորքի (NYC) AI-ի կողմնակալության աուդիտի մասին օրենքի իմ հետազոտական ​​վերլուծությունը. հղումն այստեղ.

Եկեք համոզվենք, որ մենք պատշաճ կերպով օգտագործում ենք AI-ի իրավունքների օրինագիծը, որն այժմ ունենք ձեռքի տակ՝ կապված AI-ի հետ: Եթե ​​մենք անտեսենք նախագիծը, մենք պարտվել ենք մեր խաղն ուժեղացնելու հարցում: Եթե ​​մենք սխալ ենք իրականացնում նախագիծը, ամոթ մեզ, որ յուրացրել ենք օգտակար հիմքը:

Մեծարգո հռոմեացի բանաստեղծ Յուվենալն այլ բան է ասել, որը մենք կարող ենք օգտագործել այս պարագայում. Anima sana in corpore sano.

Ընդհանրապես, սա թարգմանվում է որպես պնդման, որ խելամիտ կլինի ունենալ և՛ առողջ կամ առողջ միտք, և՛ առողջ կամ առողջ մարմին: Սա մեզ թույլ է տալիս դիմանալ ցանկացած տեսակի աշխատանքի, ըստ Յուվենալի, և, անկասկած, կլինի խաղաղության կամ առաքինության կյանքի միակ ճանապարհը:

Ժամանակն է, որ մենք օգտագործենք առողջ միտք և առողջ մարմին՝ համոզվելու համար, որ մենք երաշխավորում ենք, որ մարդկությանը մեր մարդու իրավունքները կպահպանվեն և ամուր ամրացվեն ամենուր տարածված և երբեմն տհաճ արհեստական ​​ինտելեկտի զարգացող աշխարհում: Սա հռոմեացիների ողջամիտ խորհուրդն է, որին մենք պետք է հետևենք այսօրվա շտապողականության մեջ՝ արհեստական ​​ինտելեկտի մռայլ դարաշրջանի և ապագայի, որը վճռականորեն լցված է ինչպես լավ, այնպես էլ վատ արհեստական ​​ինտելեկտով:

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- իրավունքների օրինագիծ-այդ թվում-և-ապշեցուցիչ-անմիջապես-օգտագործելով-ai-ն/