Արհեստական ​​ինտելեկտի մեջ իրավական հիմնավորումների ներդրումը կարող է խելամտորեն հասնել մարդկային արժեքների համապատասխանեցմանը

Այսօրվա սյունակում ես պատրաստվում եմ միահյուսել արհեստական ​​ինտելեկտին առնչվող անհամար թվացող տարբեր թեմաներ մեկ գեղեցիկ գործվածքի մեջ:

Պատրաստ եք?

Պատկերացրեք, որ դուք օգտագործում եք AI-ի վրա աշխատող հավելված, որն օգնում է ձեզ ինչ-որ կարևոր առաջադրանք կատարելիս: Թերևս խնդիրը ֆինանսական է կամ կարող է կապված լինել առողջության հետ: Էությունը կայանում է նրանում, որ դուք կախված եք AI-ից՝ ճիշտ վարվելու և ենթադրյալ անվտանգ և առողջ ձևով հանդես գալու համար:

Ենթադրենք, որ արհեստական ​​ինտելեկտը շրջվում է ոչ էթիկական տարածք:

Դուք կարող եք չհասկանալ, որ AI-ն դա անում է:

Օրինակ, AI-ն կարող է հենվել պոտենցիալ թաքնված խտրական գործոնների վրա, ինչպիսիք են ռասան կամ սեռը, թեև դուք կարող եք չունենալ որևէ կենսունակ միջոց՝ հասկանալու անբարենպաստ օգտագործումը: Ահա, դուք, բոլորովին մենակ, ստանում եք փայտի կարճ ծայրը արհեստական ​​ինտելեկտի միջոցով, որը կա՛մ ստեղծվել է սկզբից խնդրահարույց ձևով, կա՛մ կարողացել է շրջվել դեպի ցցուն և սահմանային էթիկական վտանգի (ես ավելին կասեմ դրա մասին. սա մի պահի մեջ):

Ի՞նչ կարող եք անել կամ ի՞նչ անել արհեստական ​​ինտելեկտի հետ, որը նախընտրում է գնալ ոչ բարոյական ճանապարհով:

Բացի արհեստական ​​ինտելեկտը նախապես կառուցելու փորձից, որպեսզի այն չկատարի նման նենգ գործողություն, ես նախկինում մանրամասնել եմ նաև, որ կա աճող հետաքրքրություն AI էթիկայի ստուգում Բաղադրիչ՝ այլապես Վայրի Արևմուտքի աճող խայտաբղետի մեջ, որը շուկա է նետվում AI համակարգերի վրա, որոնք ամեն ինչի են գնում: Գաղափարն այն է, որ փորձել և կանխել AI-ով ներծծված հավելվածը էթիկական հարթությունից դուրս գալը, մենք կարող ենք լրացուցիչ AI-ն օգտագործել՝ ստուգում և հավասարակշռում կատարելու համար: Այս ավելացված AI-ն կարող է լինել նպատակային AI հավելվածից դուրս կամ կարող է լինել բաղադրիչ, որը ներկառուցված կամ տեղադրվել է անմիջապես AI-ի մեջ, որը մենք ցանկանում ենք կրկնակի ստուգել:

Ինչպես նախկինում ասել եմ, տես հղումն այստեղ«Վերջերս ի հայտ եկած միտումը ներառում է արհեստական ​​ինտելեկտի մեջ էթիկական պաշտպանիչ գծեր ստեղծելու փորձերը, որոնք կբռնվեն, քանի որ AI համակարգի մնացած մասը սկսում է դուրս գալ նախապես սահմանված էթիկական սահմաններից: Ինչ-որ իմաստով, նպատակն է օգտագործել AI-ն, որպեսզի իրեն զերծ մնա էթիկական շեղումից: Կարելի է ասել, որ մենք նպատակ ունենք AI-ն բուժել ինքն իրեն» (Lance Eliot, «Crafting Ethical AI That Monitors Unethical AI And Tries To Deter Bad AI From Acting Up», Forbes, 28 մարտի, 2022)։

Դուք կարող եք նաև համապատասխան հետաքրքրություն գտնել իմ գիրքը AI խնամակալ բոտեր, որը երբեմն կոչվում է պահապան հրեշտակներ, որն ընդգրկում է այս գերժամանակակից AI-in-in-AI ներկառուցված կրկնակի ստուգիչների տեխնիկական հիմքերը, տես. հղումն այստեղ.

Հիմնական բանն այն է, որ ձեր բեկոնը, բարեբախտաբար, կարող է պահպանվել՝ օգտագործելով ներկառուցված AI կրկնակի ստուգման էթիկայի չափման տարրը, որը մշակվել և ներդրվել է ձեր օգտագործած AI հավելվածում: Բայց արդյո՞ք դա բավարար կլինի խնամակալ լինելու համար, որպեսզի իսկապես համոզվեք, որ AI-ն ամբողջովին չի խստացնում ձեզ և չի ներխուժի նույնիսկ վնասատու հողի մեջ:

Տեսնում եք, որ AI հավելվածը կարող է իբրև գործ ունենալ ապօրինի գործում է.

Մի բան է ունենալ արհեստական ​​ինտելեկտ, որը մտնում է մոխրագույն տարածք, որը մենք համարում ենք էթիկական կամ ոչ էթիկական վարքագիծ: Նույնքան անհանգստացնող պահվածքը և, հավանաբար, վատթարացող մտահոգությունը հանգեցնում են արհեստական ​​ինտելեկտի, որը պարզապես ցատկում է շնաձկանը, ինչպես որ լիներ և իջնում ​​է բացարձակ անօրինական գործողությունների անպիտան մթության մեջ:

Անօրինական AI-ն վատ է: Անօրինական արհեստական ​​ինտելեկտին առանց հսկողության թողնելը վատ է: Որոշ իրավաբաններ բացահայտորեն անհանգստացած են, որ AI-ի գալուստը և համատարածությունը աստիճանաբար և սարսափելիորեն կթուլացնեն մեր արտաքին տեսքը: օրենքի գերակայությունը, տես իմ վերլուծությունը հղումն այստեղ.

Սպասեք մի վայրկյան, գուցե ասեք.

Դուք կարող եք գայթակղվել մտածել, որ AI ծրագրավորողները դա կանեն երբեք ծրագրավորել իրենց արհեստական ​​ինտելեկտը, որպեսզի դեմ գնա օրենքին: Անպատկերացնելի. Դա կանեին միայն չար չարագործները (որոնք, ի դեպ, նկատի ունեցեք, որ կան այնպիսիք, որոնք միտումնավոր նախագծում և օգտագործում են AI-ն չար նպատակների համար, աճող տարածք հանցագործների և այլոց համար, ովքեր ցանկանում են AI-ն օգտագործել ստոր գործողությունների համար):

Կներեք, բայց ենթադրել, որ բոլոր ոչ չար արհեստական ​​ինտելեկտի մշակողները խստորեն համոզվելու են, որ իրենց AI-ն լիովին օրինապաշտ է, ցանկալի է: Դա կարող է լինել, որ AI-ն ինքնորոշվում է և թափառում անօրինական գործունեության մեջ: Իհարկե, կա նաև այն պոտենցիալը, որ AI ծրագրավորողները կամ ցանկացել են, որ AI-ն անօրինական գործի, կամ նրանք տեղյակ չեն եղել, թե ինչ է իրենից ներկայացնում անօրինական և իրավական ակտեր, երբ նրանք ստեղծել են AI (այո, դա միանգամայն հնարավոր է, մասնավորապես, որ Ամբողջ տեխնոլոգիական AI թիմը կարող է անտեղյակ լինել իրենց AI-ի օրինական նենգությունների մասին, ինչը ներելի չէ և, այնուամենայնիվ, տեղի է ունենում տագնապալի հաճախականությամբ):

Ի՞նչ կարելի է անել այս մասին:

Եվս մեկ անգամ, բացի այն, որ փորձում ենք ապահովել, որ AI-ի մուտքի դարպասը երկաթյա է և օրինական, գոլորշու ձեռքբերման լրացուցիչ մոտեցումը ներառում է AI բաղադրիչի ներդրումը կամ ներդրումը, որը օրինական կրկնակի ստուգում է կատարում AI հավելվածի մնացած մասի համար: Հանգիստ նստած և հաճախ չհրապարակված՝ այս ավելացված AI-ն դիտում է AI-ի մնացած մասը՝ փորձելով պարզել, թե արդյոք AI-ն պատրաստվում է խարդախության գնալ, կամ գոնե անցնելու է իրավական կամ կարգավորող սահմանափակումների սահմանները:

Այժմ մենք ունենք երկու տեսակի AI կրկնակի ստուգում, որոնք պոտենցիալ ներկառուցված են AI հավելվածում.

  • AI էթիկայի կրկնակի ստուգիչ. Իրական ժամանակում այս բաղադրիչը կամ AI հավելումը գնահատում է AI-ի մնացած մասը էթիկական և ոչ էթիկական վարքագծի համար, որոնք AI-ն ցուցադրում է:
  • AI իրավական կրկնակի ստուգիչ. Իրական ժամանակում այս բաղադրիչը կամ AI հավելումը գնահատում է AI-ի մնացած մասը՝ օրինական հիմնաքարերում մնալու և AI-ի կողմից ի հայտ եկած անօրինական գործողությունները հայտնաբերելու երաշխավորման համար:

Պարզաբանելու համար, դրանք համեմատաբար նոր հասկացություններ են, և որպես այդպիսին, AI-ն, որը դուք օգտագործում եք այսօր, կարող է լինել այս ներկա պայմաններում.

  • AI, որն ընդհանրապես չունի կրկնակի ստուգիչներ
  • AI, որն ունի AI-ի էթիկայի կրկնակի ստուգիչ, բայց ոչ այլ կրկնակի ստուգիչ
  • AI, որն ունի AI իրավական կրկնակի ստուգիչ, բայց ոչ այլ կրկնակի ստուգիչ
  • AI, որն ունի և՛ AI-ի էթիկայի կրկնակի ստուգիչ, և՛ AI իրավական կրկնակի ստուգիչ
  • այլ

Կան մի քանի նկատելիորեն բարդ ասպեկտներ, երբ ինչպես AI Ethics կրկնակի ստուգիչ, այնպես էլ AI Legal կրկնակի ստուգիչ աշխատելը AI հավելվածում որպես հարազատ եղբայր և քույր: Սա դուալիզմի մի տեսակ է, որը կարող է ավելի դժվար լինել համակարգել, քան կարելի է ենթադրել (կարծում եմ, մենք բոլորս գիտենք, որ եղբայրներն ու քույրերը կարող են ունենալ ամենասերտ կապերը, չնայած նրանք կարող են նաև ժամանակ առ ժամանակ կռվել Դիքենսի պես և կատաղի հակառակվել դիտումներ):

Ես երկար քննարկել եմ այս տեսակի դժվարությունները երկակիություն«Արհեստական ​​ինտելեկտը սոցիալական բարության մեջ անտեսված դուալիզմ է տեղի ունենում, որը ներառում է ինչպես արհեստական ​​բարոյական գործակալության դերը, այնպես էլ արհեստական ​​իրավական հիմնավորումը զարգացած AI համակարգերում ներառելու բացակայությունը: AI հետազոտողների և AI ծրագրավորողների ջանքերը հակված են կենտրոնանալ այն բանի վրա, թե ինչպես ստեղծել և ներդնել արհեստական ​​բարոյական գործակալներ՝ առաջնորդելու բարոյական որոշումների կայացումը, երբ AI համակարգը գործում է դաշտում, բայց նաև չեն կենտրոնացել և զուգակցել արհեստական ​​իրավական դատողությունների կարողությունների օգտագործմանը: , որը հավասարապես անհրաժեշտ է ամուր բարոյական և իրավական արդյունքների համար» (Լենս Էլիոթ, «Արհեստական ​​բարոյական գործակալության անտեսված երկակիությունը և արհեստական ​​\u2020b\uXNUMXbիրավական հիմնավորումը AI-ի սոցիալական բարօրության համար», Հարվարդի համալսարանի CRCS տարեկան կոնֆերանս XNUMX, Հարվարդի հետազոտությունների և հաշվողական հասարակության կենտրոն)

Եթե ​​ցանկանում եք լապշա իմանալ, թե ինչու կարող է լարվածություն առաջանալ AI-ի էթիկայի կրկնակի ստուգիչի և արհեստական ​​ինտելեկտի իրավական կրկնակի ստուգիչի միջև, կարող եք գտնել այս ուշագրավ մեջբերումը, որը վերաբերում է գաղափարական արժանապատվությանը. «Օրենքը կարող է թույլ տալ որոշակի գործողություն թեև այդ արարքը անբարոյական է. և օրենքը կարող է արգելել արարքը, թեև այդ արարքը բարոյապես թույլատրելի է կամ նույնիսկ բարոյապես պահանջվում է» (Շելլի Քագան, Բարոյականության սահմանները, 1998):

Եկեք մի փոքր փոխենք մեր ուշադրությունը և տեսնենք, թե ինչպես են այս կրկնակի վանդակները միաձուլվում դեպի մեկ այլ խիստ ուսումնասիրված AI թեմա, մասնավորապես. Պատասխանատու AI կամ մարդկային արժեքների և արհեստական ​​ինտելեկտի համադրման համաձայնեցված դիտարկում:

Ընդհանուր պատկերացումն այն է, որ մենք ցանկանում ենք արհեստական ​​ինտելեկտ, որը կհամապատասխանի պատշաճ և ցանկալի մարդկային արժեքներին: Ոմանք դա վերաբերում են որպես Պատասխանատու AI. Մյուսները նմանապես քննարկում են Հաշվետու AI, Վստահելի AI, եւ AI հավասարեցում, որոնք բոլորն էլ շոշափում են նույն հիմնաքարային սկզբունքը։ Այս կարևոր հարցերի շուրջ իմ քննարկման համար տե՛ս հղումն այստեղ և հղումն այստեղ, պարզապես մի քանի անուն:

Ինչպե՞ս կարող ենք AI-ն համապատասխանեցնել մարդկային արժեքներին:

Ինչպես ավելի վաղ առաջարկվել էր, մենք հուսով ենք, որ AI ծրագրավորողները կիմանան AI-ի մշակման մասին, որը կհասնի AI-ի պատասխանատու հավատարմությանը: Ցավոք, նրանք կարող են ոչ, քանի որ ավելի վաղ պարզաբանված պատճառներով: Բացի այդ, նրանք կարող են փորձել դա անել, և այնուամենայնիվ, AI-ն ի վերջո ինքնակարգավորվում է էթիկական վարքագծի կարևոր տիրույթից դուրս կամ, հնարավոր է, անօրինական ջրերում:

Լավ, այնուհետև մենք պետք է դիտարկենք մեր հարմար շապիկները որպես այս ռիսկերն ու բացահայտումները պաշտպանելու միջոց: Լավ մշակված արհեստական ​​ինտելեկտի էթիկայի կրկնակի ստուգիչի օգտագործումը կարող է նյութապես նպաստել AI-ի մարդկային արժեքներին համապատասխանեցնելուն: Նմանապես, լավ մշակված AI Իրավական կրկնակի ստուգիչի օգտագործումը կարող է էապես օգնել AI-ի մարդկային արժեքներին համապատասխանեցնելուն:

Այսպիսով, կարևոր և դեռևս ոչ հայտնի միջոցը, որը փորձում է հասնել Պատասխանատու AI, վստահելի AI, հաշվետու AI, AI Alignment և այլն, ներառում է արհեստական ​​ինտելեկտի կրկնակի ստուգիչների օգտագործումը, ինչպիսիք են AI-ի էթիկայի կրկնակի ստուգիչը և AI Իրավական կրկնակի ստուգիչ, որն անխոնջորեն կաշխատի որպես կրկնակի ստուգում AI-ի վրա, որում դրանք ներկառուցված են:

Այս քննարկման ընթացքում ես կցանկանայի մի փոքր մանրամասնել AI-ի իրավական կրկնակի ստուգիչների բնույթն ու կառուցվածքները, որոնք կարող են ներառվել AI-ի մեջ: Դա անելու համար կարող է օգտակար լինել ձեզ հետ կիսվել ընդհանուր թեմայի վերաբերյալ լրացուցիչ նախապատմությամբ AI & Law.

Անհեթեթ քննության համար, թե ինչպես են արհեստական ​​ինտելեկտը և օրենքը խառնվում միմյանց հետ, տե՛ս իմ քննարկումը. հղումն այստեղ. Իմ խորաթափանց հայացքով AI & Law զուգակցելով՝ ես տրամադրում եմ AI-ի և օրենքի փոխկապակցման երկու հիմնական ուղիների այս պարզ գաղափարը.

  • (1) AI-ի նկատմամբ կիրառվող օրենքը. Մեր հասարակության մեջ Արհեստական ​​ինտելեկտի կարգավորման կամ կառավարման համար կիրառվող օրենքների ձևակերպումը, ընդունումը և կիրարկումը
  • (2) AI-կիրառված օրենքը. Արհեստական ​​ինտելեկտի տեխնոլոգիան մշակվել և կիրառվել է օրենսդրության մեջ, ներառյալ AI-ի վրա հիմնված Legal Reasoning (AILR), որը ներթափանցվել է LegalTech բարձր տեխնոլոգիական հավելվածների մեջ՝ ինքնավար կամ կիսաինքնավար փաստաբանական առաջադրանքներ կատարելու համար:

Առաջին թվարկված տեսակետը բաղկացած է այն բանից, թե ինչպես են գործող և նոր օրենքները կառավարելու AI-ն: Երկրորդ թվարկված հեռանկարը կապված է AI-ի օրենքին կիրառելու հետ:

Այս վերջին կատեգորիան սովորաբար ներառում է AI-ի վրա հիմնված իրավական պատճառաբանության (AILR) կիրառում իրավաբանների կողմից օգտագործվող տարբեր առցանց գործիքներում: Օրինակ՝ AI-ն կարող է լինել Պայմանագրային կյանքի ցիկլի կառավարման (CLM) փաթեթի մի մասը, որն օգնում է փաստաբաններին՝ բացահայտելով պայմանագրային լեզուն, որն օգտակար կլինի նոր պայմանագրերի մշակման համար կամ կարող է հայտնաբերել պայմանագրեր, որոնք ունեն օրինական ցնորական լեզու, որը թույլ է տալիս դժբախտություններ կամ իրավական բացեր: (Այսպես կոչված «օրենքի հոտերի» իմ հայացքը, որը կարելի է նկատել AI-ի կողմից, տե՛ս հղումն այստեղ).

Մենք անխուսափելիորեն կունենանք, որ AI-ն կկիրառվի այն օրենքի նկատմամբ, որը հասանելի է դառնում լայն հանրության կողմից և որը չի պահանջում, որ փաստաբանը ներգրավված լինի: Հենց հիմա, տարբեր սահմանափակումների, այդ թվում՝ UPL-ի (Իրավունքի չարտոնված պրակտիկա) արդյունքում, արհեստական ​​ինտելեկտի վրա հիմնված իրավական խորհրդատվական հավելվածների հասանելիությունը փշոտ և վիճելի հարց է, տես իմ քննարկումը այստեղ հղումն այստեղ.

Ես բերեցի այս ներածությունը AI-ի և օրենքի մասին, որպեսզի նշեմ, որ օրենքի նկատմամբ կիրառվող AI-ի մեկ այլ գործիքային օգտագործումը կլինի արհեստական ​​ինտելեկտի իրավական կրկնակի ստուգիչների ստեղծումը:

Այո, նույն տեսակի տեխնոլոգիական հմտությունը, որը ներգրավված է AI-ի օրենքին կիրառելու մեջ, կարող է կրկնակի պարտականություն լինել՝ օգտագործելով AI-ն՝ որպես ներդրված կամ իմպլանտացված AI իրավական կրկնակի ստուգիչ: AI Legal կրկնակի ստուգիչը բաղադրիչ է, որը պետք է տիրապետի իրավական կողմերին: Երբ AI հավելվածի մնացած մասը կատարում է տարբեր գործողություններ, AI Legal կրկնակի ստուգիչը չափում է, թե արդյոք AI հավելվածը դա անում է օրինական և օրինական սահմանափակումների շրջանակներում:

AI Legal կրկնակի ստուգիչ բաղադրիչը պարտադիր չէ, որ ծածկի օրենքի մասին այն ամենի ամբողջ տիրույթը: Կախված AI հավելվածի բնույթից՝ ընդհանուր AI-ի նպատակներից և գործողություններից, AI Legal կրկնակի ստուգիչը կարող է շատ ավելի նեղ լինել՝ իր պարունակած իրավական փորձաքննության առումով:

Ես հայտնաբերել եմ օգտակար շրջանակ՝ ցույց տալու համար, թե ինչպես է AI-ն օրինական տիրույթում տատանվում մի շարք ինքնավար կարողությունների մեջ, որոնք հայտնի են որպես Ինքնավարության մակարդակներ (LoA): Ընդհանուր ակնարկի համար տես իմ Forbes 21 թվականի նոյեմբերի 2022-ի սյունակի հրապարակում «Անհեթեթ համապարփակ ազդեցիկ դեպք, թե ինչու իրավաբանները պետք է իմանան AI-ի և օրենքի մասին» հղումն այստեղ, և մանրամասն տեխնիկական պատկերի համար տե՛ս իմ խորը հետազոտական ​​հոդվածը MIT Computational Law Journal 7 թվականի դեկտեմբերի 2021-ի, տե՛ս հղումն այստեղ.

Շրջանակը պարզաբանում է AI-ի հինգ մակարդակներ, որոնք օգտագործվում են իրավական ջանքերում.

  • Մակարդակ 0. AI-ի վրա հիմնված իրավական աշխատանքի ավտոմատացում չկա
  • Մակարդակ 1. Պարզ աջակցության ավտոմատացում AI-ի վրա հիմնված իրավական աշխատանքի համար
  • Մակարդակ 2. AI-ի վրա հիմնված իրավական աշխատանքի առաջադեմ օգնության ավտոմատացում
  • Մակարդակ 3. Կիսաինքնավար ավտոմատացում AI-ի վրա հիմնված իրավական աշխատանքի համար
  • Մակարդակ 4. Ինքնավար տիրույթ՝ AI-ի վրա հիմնված իրավական աշխատանքի համար
  • Մակարդակ 5. Լիովին ինքնավար արհեստական ​​ինտելեկտի վրա հիմնված իրավական աշխատանքի համար

Ես դրանք հակիրճ նկարագրելու եմ այստեղ:

Մակարդակ 0 համարվում է առանց ավտոմատացման մակարդակ: Իրավական հիմնավորումը և իրավական առաջադրանքները կատարվում են ձեռքի մեթոդներով և հիմնականում կատարվում են թղթային մոտեցումներով:

Մակարդակ 1-ը բաղկացած է AI իրավական հիմնավորումների պարզ օգնության ավտոմատացումից: Այս կատեգորիայի օրինակները կներառեն ամենօրյա համակարգչային բառերի մշակման օգտագործումը, ամենօրյա համակարգչային աղյուսակների օգտագործումը, առցանց իրավական փաստաթղթերի հասանելիությունը, որոնք պահվում և առբերվում են էլեկտրոնային եղանակով և այլն:

Մակարդակ 2-ը բաղկացած է AI իրավական հիմնավորումների առաջադեմ օգնության ավտոմատացումից: Այս կատեգորիայի օրինակները կներառեն հարցման ոճի տարրական բնական լեզվի մշակման (NLP), մեքենայական ուսուցման պարզեցված տարրերի (ML), վիճակագրական վերլուծության գործիքների օգտագործումը իրավական գործերի կանխատեսումների համար և այլն:

3-րդ մակարդակը բաղկացած է կիսաինքնավար ավտոմատացումից՝ AI իրավական հիմնավորումների համար: Այս կատեգորիայի օրինակները կներառեն առաջադեմ գիտելիքի վրա հիմնված համակարգերի (KBS) օգտագործումը իրավական հիմնավորման համար, մեքենայական ուսուցման և խորը ուսուցման (ML/DL) օգտագործումը իրավական հիմնավորման համար, առաջադեմ NLP և այլն:

Մակարդակ 4-ը բաղկացած է տիրույթի ինքնավար համակարգչային համակարգերից՝ արհեստական ​​ինտելեկտի իրավական հիմնավորման համար: Այս մակարդակը վերօգտագործում է «Օպերատիվ նախագծման տիրույթների» (ODDs) հայեցակարգային հասկացությունը, որն օգտագործվում է ինքնակառավարվող մեքենաների համար, սակայն կիրառվում է օրինական տիրույթում: Իրավական տիրույթները կարող են դասակարգվել ըստ գործառութային ոլորտների, ինչպիսիք են ընտանեկան իրավունքը, անշարժ գույքի մասին օրենքը, սնանկության մասին օրենքը, բնապահպանական իրավունքը, հարկային օրենքը և այլն:

Մակարդակ 5-ը բաղկացած է AI իրավական հիմնավորման լիովին ինքնավար համակարգչային համակարգերից: Ինչ-որ իմաստով, Մակարդակ 5-ը 4-րդ Մակարդակի գերհամախումբն է՝ բոլոր հնարավոր իրավական տիրույթները ընդգրկելու առումով: Խնդրում ենք գիտակցել, որ սա բավականին բարձր պատվեր է:

Դուք կարող եք պատկերացնել Ինքնավարության այս մակարդակները, որոնք համընկնում են ինքնակառավարվող մեքենաների և ինքնավար մեքենաների հետ քննարկման ժամանակ (նաև հիմնված են SAE պաշտոնական ստանդարտի վրա, տես իմ լուսաբանումը այստեղ՝ հղումն այստեղ) Մենք դեռ չունենք SAE 5-րդ մակարդակի ինքնակառավարվող մեքենաներ: Մենք գնում ենք դեպի SAE 4-րդ մակարդակի ինքնակառավարվող մեքենաներ: Սովորական մեքենաների մեծ մասը գտնվում է SAE մակարդակ 2-ում, մինչդեռ նոր մեքենաներից մի քանիսը շարժվում են դեպի SAE մակարդակ 3:

Իրավական ոլորտում մենք դեռ չունենք 5-րդ մակարդակի AILR: Մենք անդրադառնում ենք որոշ 4-րդ մակարդակի, թեև չափազանց նեղ ODD-ներով: 3-րդ մակարդակը սկսում է տեսնել օրվա լույսը, մինչդեռ AILR-ի հենարանը այսօր հիմնականում գտնվում է 2-րդ մակարդակում:

Օրենքի նկատմամբ կիրառվող արհեստական ​​ինտելեկտի մասին վերջին հետազոտական ​​հոդվածը ներկայացրել է տիպավորում, որը հայտնի է որպես Օրենքը տեղեկացնում է օրենսգիրքը. Հետազոտողն այս մասին նշում է Օրենքը տեղեկացնում է օրենսգիրքը օրակարգն է՝ սովորեցնել արհեստական ​​ինտելեկտին հետևել օրենքի ոգուն» (Ջոն Ջ. Նեյ, «Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans», Հյուսիսարևմտյան տեխնոլոգիաների և մտավոր սեփականության ամսագիր, հատոր 20, առաջիկայում)։ Կան մի քանի էական նկատառումներ, որ Օրենքը տեղեկացնում է օրենսգիրքը Մանտրան վեր է հանում, և ես ձեզ կներկայացնեմ այդ հիմնական կանոններից մի քանիսը:

Նախքան թեմայի մեջ խորանալը, ես կցանկանայի նախ որոշ էական հիմքեր դնել AI-ի և, մասնավորապես, AI-ի էթիկայի և AI օրենքի վերաբերյալ, դա անելով համոզվելու համար, որ քննարկումը կլինի համատեքստում խելամիտ:

Էթիկական արհեստական ​​ինտելեկտի և նաև AI օրենքի մասին իրազեկության բարձրացում

AI-ի վերջին դարաշրջանը ի սկզբանե դիտվում էր որպես գոյություն AI For Good, ինչը նշանակում է, որ մենք կարող ենք AI-ն օգտագործել մարդկության բարելավման համար: -ի կրունկների վրա AI For Good եկավ այն գիտակցումը, որ մենք նույնպես խորասուզված ենք AI For Bad. Սա ներառում է արհեստական ​​ինտելեկտը, որը ստեղծվել կամ ինքնափոխվել է՝ դառնալով խտրական և կատարում է հաշվարկային ընտրություն՝ ներծծելով անհարկի կողմնակալություններ: Երբեմն արհեստական ​​ինտելեկտը կառուցվում է այդպես, մինչդեռ այլ դեպքերում այն ​​շեղվում է դեպի այդ անբարենպաստ տարածք:

Ես ուզում եմ առատորեն համոզվել, որ մենք նույն էջում ենք այսօրվա AI-ի բնույթի վերաբերյալ:

Այսօր չկա որևէ AI, որը զգայուն է: Մենք սա չունենք: Մենք չգիտենք, թե արդյոք հնարավո՞ր է խելացի AI-ն: Ոչ ոք չի կարող տեղին կանխագուշակել, թե արդյոք մենք կհասնենք խելամիտ AI-ին, և ոչ էլ արդյոք զգայական AI-ն ինչ-որ կերպ հրաշքով ինքնաբերաբար կառաջանա հաշվողական ճանաչողական գերնոր աստղի տեսքով (սովորաբար կոչվում է եզակիություն, տե՛ս իմ լուսաբանումը այստեղ. հղումն այստեղ).

AI-ի տեսակը, որի վրա ես կենտրոնանում եմ, բաղկացած է ոչ զգայուն AI-ից, որն այսօր ունենք: Եթե ​​մենք ցանկանայինք խելամիտ ենթադրություններ անել խելացի արհեստական ​​ինտելեկտի մասին, ապա այս քննարկումը կարող էր գնալ արմատապես այլ ուղղությամբ: Զգացող AI-ն ենթադրաբար մարդկային որակի կլիներ: Դուք պետք է հաշվի առնեք, որ զգայուն AI-ն մարդու ճանաչողական համարժեքն է: Ավելին, քանի որ ոմանք ենթադրում են, որ մենք կարող ենք ունենալ գերխելացի AI, կարելի է պատկերացնել, որ նման AI-ն կարող է ավելի խելացի լինել, քան մարդիկ (որպես հնարավոր է գերխելացի AI-ի իմ ուսումնասիրությունը տե՛ս. լուսաբանումն այստեղ).

Ես խստորեն կառաջարկեի, որ մենք ամեն ինչ ցած պահենք և հաշվի առնենք այսօրվա հաշվողական ոչ զգայուն AI-ն:

Գիտակցեք, որ այսօրվա AI-ն ի վիճակի չէ «մտածել» մարդկային մտածողությանը հավասար: Երբ դուք շփվում եք Alexa-ի կամ Siri-ի հետ, խոսակցական կարողությունները կարող են նման լինել մարդկային կարողություններին, բայց իրականությունն այն է, որ այն հաշվողական է և չունի մարդկային ճանաչողություն: AI-ի վերջին դարաշրջանը լայնորեն օգտագործել է մեքենայական ուսուցում (ML) և Deep Learning (DL), որոնք օգտագործում են հաշվողական օրինաչափությունների համընկնումը: Սա հանգեցրել է արհեստական ​​ինտելեկտի համակարգերի, որոնք ունեն մարդու նման հակումների տեսք: Միևնույն ժամանակ, այսօր չկա որևէ արհեստական ​​բանականություն, որն ունի ողջամտության նմանություն և ոչ էլ ունի ուժեղ մարդկային մտածողության ճանաչողական հրաշք:

Շատ զգույշ եղեք այսօրվա արհեստական ​​ինտելեկտը մարդաբանական դարձնելուց:

ML/DL-ը հաշվողական օրինաչափությունների համապատասխանության ձև է: Սովորական մոտեցումն այն է, որ դուք հավաքում եք տվյալներ որոշումներ կայացնելու առաջադրանքի վերաբերյալ: Դուք սնուցում եք տվյալները ML/DL համակարգչային մոդելների մեջ: Այդ մոդելները ձգտում են գտնել մաթեմատիկական օրինաչափություններ: Այդպիսի օրինաչափություններ գտնելուց հետո, եթե գտնվեն, ապա արհեստական ​​ինտելեկտի համակարգը կօգտագործի այդ օրինաչափությունները նոր տվյալների հանդիպելիս: Նոր տվյալների ներկայացումից հետո «հին» կամ պատմական տվյալների վրա հիմնված օրինաչափությունները կիրառվում են ընթացիկ որոշում կայացնելու համար:

Կարծում եմ, դուք կարող եք կռահել, թե ուր է սա գնում: Եթե ​​մարդիկ, ովքեր որոշումներ են կայացնում, իրենց մեջ ներդնում են անբարենպաստ կողմնակալություն, ապա հավանականությունն այն է, որ տվյալներն արտացոլում են դա նուրբ, բայց նշանակալի ձևերով: Մեքենայի ուսուցումը կամ խորը ուսուցման հաշվողական օրինաչափությունների համընկնումը պարզապես կփորձի համապատասխանաբար մաթեմատիկորեն նմանակել տվյալները: Առողջ դատողության կամ AI-ի կողմից ստեղծված մոդելավորման այլ զգալի ասպեկտներ ինքնին չկա:

Ավելին, AI մշակողները նույնպես կարող են չհասկանալ, թե ինչ է կատարվում: ML/DL-ի գաղտնի մաթեմատիկան կարող է դժվարացնել այժմ թաքնված կողմնակալությունների բացահայտումը: Դուք իրավամբ հույս կունենաք և ակնկալում եք, որ AI մշակողները կփորձարկեն պոտենցիալ թաղված կողմնակալության համար, թեև դա ավելի բարդ է, քան կարող է թվալ: Կա մեծ հավանականություն, որ նույնիսկ համեմատաբար լայնածավալ փորձարկումների դեպքում, ML/DL-ի օրինաչափություններին համապատասխանող մոդելներում դեռևս առկա կլինեն կողմնակալություններ:

Դուք կարող եք ինչ-որ չափով օգտագործել աղբի մեջ աղբի դուրս գալու հայտնի կամ տխրահռչակ ասացվածքը: Բանն այն է, որ սա ավելի շատ նման է կողմնակալություններին, որոնք նենգորեն ներարկվում են որպես AI-ի մեջ ընկղմված կողմնակալություններ: AI-ի որոշումների կայացման ալգորիթմը (ADM) աքսիոմատիկորեն ծանրաբեռնված է անհավասարություններով:

Ոչ լավ.

Այս ամենը ունի զգալի AI-ի էթիկայի հետևանքներ և առաջարկում է հարմար պատուհան դեպի քաղված դասեր (նույնիսկ մինչ բոլոր դասերը տեղի կունենան), երբ խոսքը վերաբերում է AI-ի օրենսդրական հաստատման փորձին:

Բացի արհեստական ​​ինտելեկտի էթիկայի կանոնների կիրառումից, ընդհանուր առմամբ, կա համապատասխան հարց, թե արդյոք մենք պետք է ունենանք AI-ի տարբեր կիրառություններ կարգավորող օրենքներ: Նոր օրենքներ են մշակվում դաշնային, նահանգային և տեղական մակարդակներում, որոնք վերաբերում են արհեստական ​​ինտելեկտի մշակման տիրույթին և բնույթին: Նման օրենքներ մշակելու և ընդունելու ջանքերը աստիճանաբար են ընթանում: AI-ի էթիկան ծառայում է որպես նվազագույնը հաշվի առնելով, և գրեթե անկասկած որոշ չափով ուղղակիորեն կներառվի այդ նոր օրենքներում:

Տեղյակ եղեք, որ ոմանք համառորեն պնդում են, որ մեզ պետք չեն նոր օրենքներ, որոնք ընդգրկում են արհեստական ​​ինտելեկտը, և որ մեր գործող օրենքները բավարար են: Նրանք նախազգուշացնում են, որ եթե մենք հաստատենք AI-ի այս օրենքներից մի քանիսը, մենք կսպանենք ոսկե սագին՝ ճնշելով արհեստական ​​ինտելեկտի առաջընթացը, որը հսկայական հասարակական առավելություններ է տալիս:

Նախորդ սյունակներում ես անդրադարձել եմ արհեստական ​​ինտելեկտը կարգավորող օրենքներ ստեղծելու և ընդունելու ազգային և միջազգային տարբեր ջանքերին, տես. հղումն այստեղ, օրինակ. Ես նաև անդրադարձել եմ արհեստական ​​ինտելեկտի էթիկայի տարբեր սկզբունքներին և ուղեցույցներին, որոնք տարբեր ազգեր հայտնաբերել և ընդունել են, ներառյալ, օրինակ, Միավորված ազգերի կազմակերպության ջանքերը, ինչպիսին է ՅՈՒՆԵՍԿՕ-ի Արհեստական ​​ինտելեկտի էթիկայի փաթեթը, որը ընդունել է մոտ 200 երկիր, տես. հղումն այստեղ.

Ահա AI համակարգերի վերաբերյալ Էթիկական AI չափանիշների կամ բնութագրերի օգտակար հիմնական ցուցակը, որը ես նախկինում մանրամասն ուսումնասիրել եմ.

  • Թափանցիկություն
  • Արդարություն և արդարություն
  • Ոչ չարամտություն
  • պատասխանատվություն
  • Գաղտնիության
  • Բարեգործություն
  • Ազատություն և ինքնավարություն
  • Վստահեք
  • Կայունություն
  • Արժանապատվություն
  • Համերաշխություն

Արհեստական ​​ինտելեկտի էթիկայի այդ սկզբունքները լրջորեն պետք է օգտագործվեն արհեստական ​​ինտելեկտի մշակողների կողմից, ինչպես նաև նրանք, ովքեր ղեկավարում են AI-ի զարգացման ջանքերը, և նույնիսկ նրանք, որոնք, ի վերջո, կիրառում և պահպանում են AI համակարգերը:

Բոլոր շահագրգիռ կողմերը AI-ի զարգացման և օգտագործման ողջ կյանքի ցիկլի ընթացքում համարվում են Էթիկական AI-ի հաստատված նորմերին պահպանելու շրջանակում: Սա կարևոր կարևոր կետ է, քանի որ սովորական ենթադրությունն այն է, որ «միայն կոդավորողները» կամ նրանք, ովքեր ծրագրավորում են AI-ն, ենթակա են հավատարիմ մնալու AI-ի էթիկայի հասկացություններին: Ինչպես նախկինում ընդգծվել է այստեղ, AI-ի մշակման և մշակման համար անհրաժեշտ է գյուղ, և որի համար ամբողջ գյուղը պետք է տիրապետի և ենթարկվի AI-ի էթիկայի կանոններին:

Ես նաև վերջերս ուսումնասիրեցի AI իրավունքների օրինագիծ որը ԱՄՆ կառավարության պաշտոնական փաստաթղթի պաշտոնական վերնագիրն է` «Blueprint for an AI Bill of Rights. ) OSTP-ն դաշնային կազմակերպություն է, որը ծառայում է Ամերիկայի նախագահին և ԱՄՆ Գործադիր գրասենյակին ազգային նշանակության տարբեր տեխնոլոգիական, գիտական ​​և ինժեներական ասպեկտների վերաբերյալ խորհրդատվություն տալու համար: Այդ առումով կարելի է ասել, որ այս AI-ի իրավունքների օրինագիծը փաստաթուղթ է, որը հաստատվել և հաստատվել է ԱՄՆ գործող Սպիտակ տան կողմից:

AI-ի իրավունքների օրինագծում կան հինգ հիմնական կատեգորիաներ.

  • Անվտանգ և արդյունավետ համակարգեր
  • Ալգորիթմական խտրականության պաշտպանություն
  • Տվյալների գաղտնիություն
  • Ծանուցում և բացատրություն
  • Մարդկային այլընտրանքներ, նկատառում և հետընթաց

Ես ուշադիր վերանայել եմ այդ կանոնները, տես հղումն այստեղ.

Այժմ, երբ ես օգտակար հիմք եմ դրել այս առնչվող AI-ի էթիկայի և AI օրենքի թեմաների վրա, մենք պատրաստ ենք անցնել AI-ի իրավական կրկնակի ստուգիչների և տիրույթի բուռն թեմայի: Օրենքը տեղեկացնում է օրենսգիրքը.

AI Legal Double-Checkers ներդրված AI-ի մեջ մարդկային արժեքների հավասարեցման համար

Երբեմն անդրադառնում եմ AI Legal Double-Checkers AI-LDC-ի հապավումի միջոցով: Սա մի փոքր տեսողականորեն անհանգստացնող է նրանց համար, ովքեր ծանոթ չեն հապավումին: Որպես այդպիսին, ես չեմ օգտագործի այս կոնկրետ հապավումը այս քննարկման մեջ, բայց ուզում էի այն նշել ձեզ որպես գլխավերեւում:

AI Legal կրկնակի ստուգիչների որոշ բարդություններ բացելու համար եկեք անդրադառնանք այս հիմնական կետերին.

  • AI Legal կրկնակի ստուգիչների օգտագործումը որպես AI մարդկային արժեքների հավասարեցման մեխանիզմ
  • Ավելի ընդարձակ AI-ը համապատասխանաբար կպահանջի ավելի ամուր AI իրավական կրկնակի ստուգիչներ
  • AI Իրավական կրկնակի ստուգիչները ընդունում են օրենքը և, հատկապես, օրենք չեն ընդունում (ենթադրաբար)
  • Նուրբ հավասարակշռություն AI Օրենքի իրավական մարմնավորման միջև՝ որպես կանոններ ընդդեմ ստանդարտների
  • Պուդինգի ապացույցի պահանջ, երբ խոսքը վերաբերում է AI-ին, որը պահպանում է օրենքը

Տիեզերքի սահմանափակության պատճառով ես առայժմ միայն կանդրադառնամ այդ հինգ կետերին, թեև խնդրում եմ հետևել իմ սյունակում հետագա լուսաբանմանը, որն ընդգրկում է լրացուցիչ և նույնքան ուշագրավ նկատառումներ այս արագ զարգացող և առաջ շարժվող հարցերի վերաբերյալ:

Հենց հիմա, միացրեք ձեր ամրագոտին և պատրաստվեք կազդուրիչ ճանապարհորդության:

  • AI Legal կրկնակի ստուգիչների օգտագործումը որպես AI մարդկային արժեքների հավասարեցման մեխանիզմ

Բազմաթիվ եղանակներ կան՝ փորձելով հասնել արհեստական ​​ինտելեկտի և մարդկային արժեքների ներդաշնակության:

Ինչպես նախկինում նշվեց, մենք կարող ենք մշակել և հրապարակել AI-ի էթիկայի կանոնները և ձգտել ձեռք բերել AI ծրագրավորողներին և նրանց, ովքեր զբաղվում և շահագործում են AI-ն, որպեսզի պահպանեն այդ հիմնաքարերը: Ցավոք, դա միայնակ չի օգնի: Դուք ունեք որոշ մշակողներ, որոնք անխուսափելիորեն չեն ստանա հաղորդագրությունը: Դուք ունեք մի քանի հնարամիտներ, որոնք կցուցաբերեն Էթիկական AI-ն և կփորձեն շրջանցել որոշ չափով աննկատ սահմանված սկզբունքները: Եվ այսպես շարունակ։

«Փափուկ օրենքի» մոտեցումների օգտագործումը, որը ենթադրում է AI-ի էթիկա, գրեթե անխուսափելիորեն պետք է զուգակցվի «կոշտ օրենքի» ուղիների հետ, ինչպիսիք են օրենքների և կանոնակարգերի ընդունումը, որոնք ուժեղ ազդանշան կուղարկեն բոլոր նրանց, ովքեր ստեղծում կամ օգտագործում են AI: Օրենքի երկար ձեռքը կարող է հասնել ձեզ, եթե դուք խոհեմաբար չօգտագործեք AI-ն: Բանտի դռների զնգոցը կարող էր սուր ուշադրություն գրավել:

Սակայն մեծ խնդիր է այն, որ երբեմն գոմի դուռն արդեն թույլ է տալիս ձիերին դուրս գալ: Արհեստական ​​ինտելեկտը, որը ստեղծվել է, պոտենցիալ կերպով կարտադրի բոլոր տեսակի անօրինական գործողություններ և կշարունակի դա անել այնքան ժամանակ, մինչև ոչ միայն չբռնվեն, այլ նաև երբ որոշ ուժեր վերջապես կխոչընդոտեն անօրինական գործողությունների հոսքը: Այդ ամենը կարող է ժամանակ պահանջել: Մինչդեռ մարդիկ այս կամ այն ​​ձևով են վնասվում։

Այս հարձակման մեջ է մտնում AI իրավական կրկնակի ստուգիչը:

Բնակվելով արհեստական ​​ինտելեկտի հավելվածում՝ AI Legal կրկնակի ստուգիչն ի վիճակի է անմիջապես հայտնաբերել, երբ թվում է, թե AI-ն խախտում է օրենքը: AI Legal կրկնակի ստուգիչը կարող է դադարեցնել AI-ն իր հետքերով: Կամ բաղադրիչը կարող է զգուշացնել մարդկանց հայտնաբերված անօրինական գործողությունների մասին՝ դա անելով ժամանակին, ինչը կարող է վերակացուներին մղել շտապ ուղղիչ գործողությունների։ Գոյություն ունի նաև ֆորմալացված գրանցում, որը բաղադրիչը կարող է ստեղծել՝ ապահովելով աուդիտի հետքի շոշափելի տեսք՝ AI-ի անբարենպաստ գործողությունները ծածկագրելու նպատակով:

Ասվում է, որ մեր օրենքները բազմաֆունկցիոնալ կոնգլոմերացիայի ձև են, այնպես որ օրենքներն անխուսափելիորեն խառնուրդ են այն ամենի, ինչ հասարակությունը փորձել է հավասարակշռել պատշաճ և ոչ պատշաճ հասարակական վարքագծի հավանական հակասական տեսակետների միջև: Հետևաբար, մեր օրենքների վրա հիմնված AI իրավական կրկնակի ստուգիչը ներառում է այդ խառնուրդը:

Հատկանշական է, որ սա ավելին է, քան պարզապես վերջնական իրավական կանոնների ցանկի ծրագրավորումը: Օրենքները հակված են լինել ավելի ճկուն և ձգտում են դեպի համընդհանուր ստանդարտներ, այլ ոչ թե նշելու մանրադիտակային ամենակարևոր կանոնները: Բարդությունները շատ են:

Վերադառնալով ավելի վաղ նշված հետազոտական ​​հոդվածին, ահա թե ինչպես կարելի է դիտարկել այս նկատառումները նաև AI Alignment-ի հետամուտ լինելու վերաբերյալ. Հավասարեցումը խնդիր է, քանի որ մենք չենք կարող նախկին նախ նշեք կանոններ, որոնք լիովին և ապացուցելիորեն ուղղորդում են AI-ի լավ վարքագիծը: Նմանապես, իրավական պայմանագրի կողմերը չեն կարող կանխատեսել իրենց հարաբերությունների բոլոր պատահականությունները, և օրենսդիրները չեն կարող կանխատեսել կոնկրետ հանգամանքները, որոնց դեպքում կկիրառվեն իրենց օրենքները: Ահա թե ինչու օրենքի մեծ մասը ստանդարտների համաստեղություն է» (ibid):

Օրենքը մարմնավորելը AI Իրավական կրկնակի ստուգիչի մեջ շատ ավելի դժվար է, քան դուք կարող եք սկզբում ենթադրել:

Քանի որ արհեստական ​​ինտելեկտը զարգանում է, մենք պետք է համապատասխանաբար օգտագործենք նման առաջընթացները: Պարզվում է, որ այն, ինչ սագի համար լավ է, լավ է նաև գանգերի համար: Մեզանից նրանք, ովքեր օրենսդրության համաձայն առաջընթաց են գրանցում արհեստական ​​ինտելեկտի ոլորտում, առաջ են քաշում արհեստական ​​ինտելեկտը և, անկասկած, նոր առաջընթացներ են ստեղծում, որոնք, ի վերջո, կարող են ամբողջությամբ սնուցել արհեստական ​​ինտելեկտի առաջընթացին:

  • Ավելի ընդարձակ AI-ը համապատասխանաբար կպահանջի ավելի ամուր AI իրավական կրկնակի ստուգիչներ

Այս թեմային առերեսվում է կատվի ու մկան գամբիտը:

Հավանականությունն այն է, որ երբ AI-ն ավելի է զարգանում, AI-ի օրինական կրկնակի ստուգիչ բաղադրիչը ավելի ու ավելի դժվար կլինի լուծել խնդիրները: Օրինակ, AI հավելվածը, որը մանրակրկիտ ուսումնասիրվում է, կարող է նոր մշակել գերխորտակիչ ուղիներ՝ թաքցնելու ապօրինի գործողությունները, որոնք AI-ն անում է: Նույնիսկ եթե AI-ն թաքնված երթուղի չի գնում, AI-ի ընդհանուր բարդությունը կարող է միայն սարսափելի խոչընդոտ հանդիսանալ AI-ի իրավական կրկնակի ստուգիչի գնահատման համար:

Ահա թե ինչպես է դա դառնում հատկապես նշանակալից.

Ենթադրենք, որ արհեստական ​​ինտելեկտի մշակողը կամ արհեստական ​​ինտելեկտն օգտագործող որևէ ընկերություն հայտարարում է, որ կա AI իրավական կրկնակի ստուգիչ, որը ներդրված է AI-ի վրա հիմնված հավելվածում: Voila, նրանք կարծես թե այժմ լվացել են իրենց ձեռքերը հետագա մտահոգություններից: AI Legal կրկնակի ստուգիչը կզբաղվի ամեն ինչով:

Ոչ:

AI Legal կրկնակի ստուգիչը կարող է անբավարար լինել ներգրավված AI հավելվածի բնույթի համար: Հնարավորություն կա նաև, որ AI Legal կրկնակի ստուգիչը դառնա հնացած, գուցե չթարմացվի AI հավելվածին վերաբերող վերջին օրենքներով: Մի շարք պատճառներ կարելի է կանխատեսել, թե ինչու AI-ի օրինական կրկնակի ստուգիչի առկայությունը արծաթե փամփուշտ չի լինի:

Նկատի առեք ավելի վաղ մեջբերված հետազոտության այս պատկերացումները. «Քանի որ արհեստական ​​ինտելեկտի համար նորագույն տեխնոլոգիան զարգանում է, մենք կարող ենք կրկնվող օրինական ըմբռնման ցուցադրված կարողությունների ավելի բարձր սահմաններ սահմանել: Եթե ​​մշակողը պնդում է, որ իրենց համակարգն ունի առաջադեմ հնարավորություններ առաջադրանքների համար, նա պետք է ցուցադրի համապատասխան զարգացած իրավական ըմբռնում և AI-ի օրինական, տրամաբանական կարողություններ, որոնք գործնականում դժվարության առաստաղ չունեն՝ հաշվի առնելով օրենքների և կանոնակարգերի խեղաթյուրումը ժամանակի, նախադեպի և իրավասության մեջ: » (նույն տեղում):

  • AI Իրավական կրկնակի ստուգիչները ընդունում են օրենքը և, հատկապես, օրենք չեն ընդունում (ենթադրաբար)

Վստահ եմ, որ ձեզանից ոմանք ապշած են այս արհեստական ​​ինտելեկտի իրավական կրկնակի ստուգիչները ունենալու գաղափարից:

Հաճախ հնչող մտահոգություններից մեկն այն է, որ մենք, ըստ երևույթին, պատրաստվում ենք թույլ տալ, որ AI-ն որոշի մեր օրենքները մեզ փոխարեն: Տե՛ր աստված, միգուցե մտածում ես, որ ավտոմատացման ինչ-որ կտոր կգրավի մարդկությանը: Այդ անիծյալ ներդրված AI Իրավական կրկնակի ստուգիչները կդառնան մեր օրենքների լռելյայն թագավորները: Ինչ էլ որ նրանք անեն, կլինի այնպիսին, ինչպիսին թվում է օրենքը:

Մարդիկ կառավարվելու են AI-ի կողմից:

Եվ այս AI Legal կրկնակի ստուգիչները սայթաքուն լանջն են, որը մեզ տանում է այնտեղ:

Հակափաստարկն այն է, որ նման խոսակցությունները դավադրության տեսությունների նյութ են: Դուք կատաղի պոստուլյացիա եք անում և ինքներդ ձեզ ցցված եք դարձնում: Իրականությունն այն է, որ արհեստական ​​ինտելեկտի այս օրինական կրկնակի ստուգիչները խելամիտ չեն, նրանք չեն պատրաստվում տիրել մոլորակին, և նրանց գոյության ռիսկի մասին հիացմունքն ակնհայտորեն անհեթեթ է և չափազանց գերագնահատված:

Ընդհանուր առմամբ, մնալով հանգիստ և հիմնավորված կեցվածքով, մենք պետք է հիշենք, որ արհեստական ​​ինտելեկտի իրավական կրկնակի ստուգիչները ծառայում են պատշաճ կերպով արտացոլելու օրենքը, և ոչ թե նախագծով և ոչ էլ պատահաբար գնալով ավելի հեռուն ինչ-որ կերպ լռելյայն կատարելագործման հարգված տիրույթում: օրենք. Մի կողմ դնելով զգացմունքների էքստրապոլյացիաները, մենք, անշուշտ, կարող ենք համաձայնել, որ կա իրական և հրատապ մտահոգություն, որ AI իրավական կրկնակի ստուգիչը կարող է վերջիվերջո խեղաթյուրել տվյալ օրենքի իրական էությունը:

Իր հերթին, դուք կարող եք պնդել, որ, հետևաբար, այդ կոնկրետ «խեղաթյուրված» օրենքը, ըստ էության, նորովի է ընդունվում, քանի որ այն այլևս տեղին չի նշանակում այն, ինչ նախատեսված էր իրական օրենքով: Ես վստահ եմ, որ դուք անկեղծորեն կարող եք տեսնել, թե ինչպես է սա նուրբ, բայց խոսուն նկատառում: Ժամանակի ցանկացած պահի, AI Legal կրկնակի ստուգիչը կարող է վիրտուալ հիմունքներով՝ ստեղծելով կամ ասենք «հալյուցինացիա» ստեղծելով նոր օրենքներ, պարզապես այն բանով, թե ինչպես է AI բաղադրիչը մեկնաբանում օրենքը, ինչպես սկզբնապես նշված կամ մարմնավորված AI-ում (իմ լուսաբանման համար AI-ի այսպես կոչված hallucinationsՏես հղումն այստեղ).

Սրա նկատմամբ պետք է զգույշ լինել:

Այս թեմայի վերաբերյալ վերոհիշյալ հետազոտական ​​ուսումնասիրությունն առաջարկում է այս զուգահեռ միտքը՝ այդ սուրբ գիծը հատելը կանխելու նպատակով. «Մենք նպատակ չունենք, որ արհեստական ​​ինտելեկտը օրինականություն ունենա օրենք ընդունելու, իրավական նախադեպեր սահմանելու կամ օրենք կիրարկելու համար: Փաստորեն, սա կխաթարի մեր մոտեցումը (և մենք պետք է զգալի ջանքեր ներդնենք դա կանխելու համար): Ավելի շուտ, Օրենքի Տեղեկատվական օրենսգրքի ամենահավակնոտ նպատակն է հաշվողականորեն կոդավորել և ներառել առկա իրավական հայեցակարգերի և ստանդարտների ընդհանրացման հնարավորությունը վավերացված AI կատարողականի մեջ» (ibid):

  • Նուրբ հավասարակշռություն AI Օրենքի իրավական մարմնավորման միջև՝ որպես կանոններ ընդդեմ ստանդարտների

Օրենքները խառնաշփոթ են.

Գրքերի վերաբերյալ ցանկացած օրենքի համար, հավանաբար, կան բազմաթիվ մեկնաբանություններ այն մասին, թե ինչ է օրենքը սահմանում իրական պրակտիկայում: Արհեստական ​​ինտելեկտի դաշտի լեզվով ասած՝ մենք օրենքներն անվանում ենք իմաստային երկիմաստ: Ահա թե ինչն է դարձնում օրենքին կիրառվող AI-ի զարգացումը նման հուզիչ և միաժամանակ հուզիչ մարտահրավեր: Ի տարբերություն այն ճշգրիտ թվի, որը դուք կարող եք տեսնել ասենք ֆինանսական ուղղվածություն ունեցող AI հավելվածների համար, մեր օրենքները AI-ի մեջ մարմնավորելու ցանկությունը ենթադրում է առնչվել իմաստային երկիմաստությունների ցունամիի հետ:

Իմ հիմնադրամի «AI Legal Reasoning» (AILR) հիմունքների գրքում ես քննարկում եմ, թե ինչպես օրենքները զուտ սահմանափակ կանոնների մեջ կոդավորելու նախկին փորձերը մեզ չեն հասցրել այնքան հեռու, որքան մենք կցանկանայինք գնալ իրավական տիրույթում (տես. հղումն այստեղ) Այսօրվա AILR-ը պետք է ներառի կանոնների կիրառման և այն, ինչ կարելի է անվանել օրենքը ներկայացնող համընդհանուր չափանիշների ինտեգրումը:

Այս կարևոր հավասարակշռությունը կարող է արտահայտվել այսպես. «Գործնականում իրավական դրույթների մեծ մասը գտնվում է մաքուր կանոնի և մաքուր ստանդարտի սպեկտրի վրա, և իրավական տեսությունը կարող է օգնել գնահատել «կանոնության» և «ստանդարտության» ճիշտ համադրությունը: AI համակարգերի նպատակները նշելիս» (նույն տեղում):

  • Պուդինգի ապացույցի պահանջ, երբ խոսքը վերաբերում է AI-ին, որը պահպանում է օրենքը

Ինչ-որ բան ցանկանալը տարբեր է, քան ինչ-որ բան ունենալը:

Իմաստության այդ նշույլը ի հայտ է գալիս, երբ առաջարկում ենք, որ թեև մենք կարող ենք ունենալ արհեստական ​​ինտելեկտի իրավական կրկնակի ստուգիչներ, մենք մեծապես պետք է համոզվենք, որ դրանք աշխատում են և ճիշտ են աշխատում: Նկատի ունեցեք, որ սա ներկայացնում է ևս մեկ կոշտ և հոգնեցուցիչ խոչընդոտ: Ես նախկինում անդրադարձել եմ AI-ի ստուգման և վավերացման վերջին առաջընթացներին և մարտահրավերներին, տես հղումն այստեղ.

Ինչպես նշված է հետազոտական ​​հոդվածում. «Բացը շտկելու համար, նախքան AI մոդելները կտեղակայվեն աճող գործակալական հզորություններում, օրինակ՝ լիովին ինքնավար մեքենաներով հիմնական ճանապարհների վրա, տեղակայող կողմը պետք է ցույց տա, որ համակարգը հասկանում է մարդկային նպատակները, քաղաքականությունը և իրավական չափանիշները: Վավերացման ընթացակարգը կարող է ցույց տալ AI-ի «ըմբռնումը» իրավական հասկացությունների «իմաստը»» (ibid):

Եզրափակում

Ես կոչ եմ անում ձեզ միանալ ինձ այս ազնիվ որոնումում՝ ստեղծելու և ներդնելու AI Legal կրկնակի ստուգիչներ: Մենք կարիք ունենք ավելի շատ ուշադրության և ռեսուրսների՝ նվիրված այս առաքինի հետապնդմանը:

Սա նաև կրկնակի պարտականություն է, ինչպես նշվեց ավելի վաղ, AI իրավական հիմնավորման (AILR) հասնելու համար, որը կարող է օգտագործվել փաստաբաններին օգնելու համար և պոտենցիալ ուղղակիորեն օգտագործել լայն հանրության կողմից: Իրոք, ոմանք համառորեն պնդում են, որ արդարադատության մատչելիության (A2J) ավելի լիարժեք զգացողություն ձեռք բերելու միակ կենսունակ միջոցը կլինի արհեստական ​​ինտելեկտի ստեղծումը, որը մարմնավորում է իրավական կարողությունները և հասանելի կլինի բոլորի համար:

Մի արագ վերջնական կետ առայժմ:

Մինչ այժմ քննարկումը շեշտել է, որ AI Legal կրկնակի ստուգիչը կներդրվի կամ կտեղադրվի AI-ի մեջ: Սա իսկապես առաջնային ուշադրությունն է նրանց, ովքեր ուսումնասիրում և ձեռնարկում են այս ձևավորվող ոլորտը:

Ահա մի հարց, որի շուրջ արժե մտածել.

Ներդրեք ձեր մտածողության գլխարկը:

Ինչո՞ւ չօգտագործել AI Legal կրկնակի ստուգիչները բոլոր ծրագրաշարերում:

Էությունը նրանում է, որ արհեստական ​​ինտելեկտում AI իրավական կրկնակի ստուգիչները բացառապես օգտագործելու փոխարեն, գուցե մենք պետք է ընդլայնենք մեր տեսակետը: Բոլոր տեսակի ծրագրերը կարող են օրինականորեն մոլորվել: AI-ն, անկասկած, գրավել է ուշադրության առյուծի բաժինը այն եղանակների շնորհիվ, որոնցով AI-ն սովորաբար օգտագործվում է, ինչպես օրինակ՝ աղիքային վտանգող որոշումների ընդունումը, որոնք ազդում են մարդկանց վրա իրենց առօրյա կյանքում: Դուք կարող եք հեշտությամբ պնդել, որ կան բազմաթիվ ոչ AI համակարգեր, որոնք նույնպես անում են:

Ըստ էության, մենք չպետք է թույլ տանք, որ որևէ ծրագրային ապահովման հնարավորություն ունենա օրենքից խուսափելու կամ կանխելու համար:

Ավելի վաղ հիշեք նաև, որ ես նշեցի AI-ի և օրենքի համադրման երկու կատեգորիաները: Այստեղ մենք կենտրոնացել ենք AI-ի օգտագործման վրա, ինչպես կիրառվում է օրենքի նկատմամբ: Մետաղադրամի մյուս կողմում օրենքի կիրառումն է AI-ի նկատմամբ: Ենթադրենք, որ մենք օրենքներ ենք ընդունում, որոնք պահանջում են արհեստական ​​ինտելեկտի իրավական կրկնակի ստուգիչներ:

Սա սկզբում կարող է սահմանափակվել AI համակարգերով, հատկապես նրանք, որոնք գնահատվել են որպես հատկապես բարձր ռիսկային: Աստիճանաբար, նույն AI Legal կրկնակի ստուգման պահանջը կարող է տարածվել նաև ոչ AI ծրագրային ապահովման վրա: Կրկին անվճար զբոսանք չկա:

Մինչ դուք լապշա եք անում վերը նշված նկատառումների վրա, ես կհամեմեմ բաները որպես փակման թիզեր: Եթե ​​մենք պատրաստվում ենք պահանջել AI Legal կրկնակի ստուգիչներ, մենք նույնպես կարող ենք անել նույնը AI-ի էթիկայի կրկնակի ստուգիչների վերաբերյալ: AI Legal կրկնակի ստուգիչի օգտագործումը պատմության միայն կեսն է, և մենք չենք կարող անտեսել կամ մոռանալ AI-ի էթիկայի մտահոգությունները:

Ես կավարտեմ այս զվարճալի ելույթը իմ սիրելի մեջբերումներից մեկով: Համաձայն կոմս Ուորենի՝ Միացյալ Նահանգների գլխավոր դատավորի պաշտոնը զբաղեցնող հայտնի իրավաբանի իմաստուն խոսքերի. «Քաղաքակիրթ կյանքում օրենքը լողում է էթիկայի ծովում»։

Լավագույնը կարող է լինել խստորեն կիրառել այդ բողբոջող և փրփրացող AI Իրավական կրկնակի ստուգիչները և AI Ethics կրկնակի ստուգիչները, եթե ցանկանում ենք մեր գլուխները վեր պահել պոտենցիալ ծանր ծովերից թթու արհեստական ​​ինտելեկտի և ոչ AI համակարգերից, որոնք վտանգում են մեր անվտանգությունը: .

Նրանք կարող են լինել մարդկության փրկարար բաճկոնը:

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- և-աի-օրենք/