AI-ի էթիկան թերահավատորեն է վերաբերվում այսպես կոչված «Կարմիր դրոշի» արհեստական ​​ինտելեկտի օրենքներին ինքնավար AI համակարգերում կողմնակալ ալգորիթմներ կանչելու համար

Եկեք խոսենք Կարմիր դրոշի մասին օրենքների մասին:

Դուք, անկասկած, գիտեք, որ վերջերս լրահոսում լայնորեն լուսաբանվում է Կարմիր դրոշի մասին օրենքներ հասկացությունը: Թեման լուսաբանող վերնագրերը շատ են: Նման հարցերի շուրջ կրքերը և կրքոտ բանավեճերը մտքի վերևում են որպես հասարակական մտահոգություն և ենթադրում են ներկայիս և արագ ձևավորվող «Կարմիր դրոշի զենքի մասին» օրենքները:

Այնուամենայնիվ, ես կհամարձակվեմ ասել, որ դուք կարող եք ծանոթ չլինել 1800-ականների վերջին ընդունված Կարմիր դրոշի այլ օրենքներին, որոնք վերաբերում էին մոտոհրաձգային տրանսպորտային միջոցներին և այսօրվա ամենօրյա ժամանակակից ավտոմեքենաների նախատիպերին: Այո, դա ճիշտ է, Կարմիր դրոշի օրենքները հետ են գնում պատմության մեջ, թեև ընդգրկում են այլ թեմաներ՝ համեմատած այսօրվա ժամանակակից ուշադրության հետ: Սրանք սովորաբար կոչվում են «Կարմիր դրոշի երթևեկության օրենքներ»:

Այս դարավոր և բոլորովին չգործող օրենքները պահանջում էին, որ ցանկացած մոտորանոց կամ գոլորշու շարժիչով շարժվող շարժիչն այն ժամանակ պետք է լիներ մեքենայից նախորդող չափահաս մարդ և կրեր կարմիր դրոշակ՝ նախազգուշացման նպատակով: Գաղափարն այն էր, որ անասունները կարող էին տագնապել աղմկոտ և կատաղի հնարքներից, որոնք դանդաղ և անհավասար վազում էին կեղտոտ կամ ծայրամասային ասֆալտապատ ճանապարհներով, այդպիսով, ինչ-որ մեկին քայլելով սարքի առջև, իսկ կարմիր դրոշը եռանդով ծածանելով, կարող է խուսափել աղետներից: Եթե ​​ձեզ հետաքրքրում է, երկաթուղիները և գնացքները համարվում էին բացառված միևնույն օրենքներից, քանի որ դրանք տրանսպորտային միջոցներ էին, որոնք անբաժանելիորեն կապված էին ռելսերին և ունեին այլ օրենքներ, որոնք ծածկում էին իրենց գործողությունները:

Պատկերացրեք, որ այսօր պետք է կարմիր դրոշներ ծածանել՝ որպես մեր հանրային ճանապարհների յուրաքանչյուր մեքենայի պահանջ:

Օրինակ՝ ձեր թաղամասի փողոցով իջնող սովորական ավտոմոբիլիստը պետք է ապահովի, որ կարմիր դրոշը ծածանող մեծահասակը ներկա լինի և շքերթ անցնի շարժվող մեքենայի առջև: Սա պետք է տեղի ունենա ձեր փողոցով անցնող յուրաքանչյուր մեքենայի համար: Միգուցե մարդիկ դառնային կարմիր դրոշի աշխատողներ, որոնք վարձում էին անցնող մեքենաների վարորդներին, որոնք հակառակ դեպքում չունեին ընկեր կամ բարեկամ, որը կարող էր գնալ իրենց առջև և կատարել նախատեսված ծածանման գործողությունները:

Մեր օրերում մենք հակված ենք կապել մայրուղու հետ կապված կարմիր դրոշի ծածանումը ճանապարհների կառուցման վայրերի հետ: Երբ դուք մոտենաք փորված ճանապարհին, աշխատողները ձեր ուշադրությունը գրավելու համար կարմիր դրոշ կպահեն: Սա ձեզ հուշում է դանդաղեցնել և լինել զգոն: Կարող է լինել բուլդոզեր, որը կխաղա ձեր ճանապարհին: Հսկայական անցք կարող է լինել առջևում, և դուք պետք է զգույշ շրջեք դրա շուրջը:

Բայց եկեք վերադառնանք 1800-ականների կարմիր դրոշների օգտագործմանը:

Հավատացեք դրան, թե ոչ, կարմիր դրոշի ծածանը պետք է լինի առնվազն մեկ ութերորդ մղոնի հեռավորությունը գալիք շարժիչային մեքենայից առաջ: Դա բավականին երկար հեռավորություն է թվում: Թեև կարելի է ենթադրել, որ այն այդ օրերին շատ իմաստ ուներ։ Շարժիչի ապշեցուցիչ ձայները և, հավանաբար, միայն մեքենայի տեսարանը կարող են բավարար լինել կենդանիներին նյարդայնացնելու համար։ Այդ դարաշրջանի Կարմիր դրոշի օրենքներից մի քանիսը պահանջում էին նաև, որ շողացող կարմիր լույսը բարձրացվեր գիշերային ժամերին, որպեսզի տեսողականորեն ակնհայտ կարմիր նախազգուշական նախազգուշացումը տեսանելի լիներ մութ հեռավորությունից:

Ընդհանրապես, ես կարծում եմ, որ արդարացի է պնդել, որ մենք որպես հասարակություն հակված ենք կարմիր դրոշը կապել որպես մի տեսակ ազդանշան կամ ազդանշան, որ ինչ-որ բան հնարավոր է սխալ կամ առնվազն մեր հավատարիմ ուշադրության կարիքն ունի:

Պատրաստվեք մի փոքր շրջադարձի այս կարմիր դրոշի երևույթին:

Կա վիճաբանություն, որ մենք պետք է պահանջենք կարմիր դրոշի դրույթներ, երբ խոսքը վերաբերում է արհեստական ​​ինտելեկտին (AI):

Դա մի փոքր ապշեցուցիչ է և զարմանալի հայեցակարգ, որը շատերի գլխին ցնցում է: Դուք կարող եք տարակուսել, թե ինչպես կամ ինչու պետք է լինի այսպես կոչված Կարմիր դրոշի AI օրենքներ. Խնդրում ենք նկատի ունենալ, որ ես սա պիտակավորում եմ որպես Կարմիր դրոշի AI օրենքներ՝ խնդիրը տարբերելու Կարմիր դրոշի երթևեկության մասին օրենքներից (օրինակ՝ 1800-ականների վերջի օրենքներից), ինչպես նաև դրանք առանձնացնելու այսօրվա այլ ավելի տարածված Կարմիր դրոշով հրացանների մասին օրենքներից:

Արդյո՞ք մեզ անհրաժեշտ են Կարմիր դրոշի AI օրենքներ, որոնք հստակ և բացառապես ուղղված են AI-ի հարցերին:

Նրանք, ովքեր կողմնակից են առաջարկվող մոտեցմանը, կպնդեն, որ մեզ բացարձակապես անհրաժեշտ են իրավական դրույթներ, որոնք կնպաստեն AI-ի դեմ պայքարին, որը պարունակում է անհարկի կողմնակալություն և գործողություններ խտրական ձևերով: Հենց հիմա AI-ի կառուցումն ու տեղակայումը նման են Վայրի Արևմուտքի ամեն ինչի հանգամանքին: Վատ AI-ն զսպելու ջանքերը ներկայումս կախված են AI-ի էթիկայի ուղեցույցների ձևակերպումից և ընդունումից: AI-ի էթիկայի և էթիկական AI-ի իմ շարունակական և ընդարձակ լուսաբանման համար տե՛ս հղումն այստեղ և հղումն այստեղ, պարզապես մի քանի անուն:

Օրենքները, որոնք պարունակում են վատ AI-ի մեջ, կամաց-կամաց մշակվում և ուժի մեջ են մտնում, տես իմ լուսաբանումը այստեղ հղումն այստեղ. Ոմանք անհանգստանում են, որ օրենսդիրները բավականաչափ արագ չեն գնում: Թվում է, թե ջրհեղեղի դարպասները, որոնք թույլ են տալիս կանխակալ արհեստական ​​ինտելեկտը խթանել աշխարհում, հիմնականում լայնորեն բաց են հենց հիմա: Hand-wringing-ն ասում է, որ մինչ նոր օրենքները մտնեն գրքեր, չար ջինն արդեն դուրս կգա շշից:

Ոչ այնքան արագ, հակափաստարկները գնում են. Մտահոգություններն այն են, որ եթե օրենքները շատ արագ կիրառվեն, մենք կսպանենք ոսկե սագին, կարծես թե, ինչի արդյունքում AI-ի ջանքերը կչորանան, և մենք չենք ստանա նոր արհեստական ​​ինտելեկտի համակարգերի սոցիալական խթանման առավելությունները: AI մշակողները և ընկերությունները, ովքեր ցանկանում են օգտագործել AI, կարող են վախենալ, եթե AI-ն կարգավորող նոր օրենքների բյուզանդական մի շարք հանկարծակի դրվի դաշնային, նահանգային և տեղական մակարդակներում, էլ չասած AI-ի հետ կապված միջազգային օրենքների մասին, որոնք նույնպես առաջ են շարժվում:

Այս խառնաշփոթ գործի մեջ գալիս է Red Flag AI օրենքների կոչը:

Նախքան ավելի շատ մսի և կարտոֆիլի մասին խոսելը վայրի և բրդոտ նկատառումների մասին, որոնք ընկած են նախատեսված Կարմիր դրոշի արհեստական ​​ինտելեկտի մասին օրենքի հիմքում, եկեք որոշ լրացուցիչ հիմունքներ հաստատենք խորապես կարևոր թեմաների վերաբերյալ: Մենք պետք է հակիրճ ուսումնասիրենք AI-ի էթիկա և հատկապես Մեքենայական ուսուցման (ML) և Deep Learning (DL) ի հայտ գալը:

Դուք կարող եք անորոշ տեղյակ լինել, որ այս օրերի ամենաբարձր ձայներից մեկը AI ոլորտում և նույնիսկ արհեստական ​​ինտելեկտի դաշտից դուրս բաղկացած է էթիկական արհեստական ​​ինտելեկտի ավելի մեծ երևույթի մասին աղաղակելուց: Եկեք նայենք, թե ինչ է նշանակում հղում կատարել AI-ի էթիկային և էթիկական AI-ին: Բացի այդ, մենք կուսումնասիրենք, թե ինչ նկատի ունեմ, երբ խոսում եմ մեքենայական ուսուցման և խորը ուսուցման մասին:

Արհեստական ​​ինտելեկտի էթիկայի որոշակի հատված կամ մի հատված, որը արժանացել է ԶԼՄ-ների մեծ ուշադրությանը, բաղկացած է AI-ից, որը ցուցադրում է անբարենպաստ կողմնակալություններ և անհավասարություններ: Դուք կարող եք տեղյակ լինել, որ երբ սկսվեց AI-ի վերջին դարաշրջանը, խանդավառության մեծ պոռթկում էր այն, ինչ այժմ ոմանք անվանում են: AI For Good. Ցավոք սրտի, այդ բուռն հուզմունքից հետո մենք սկսեցինք ականատես լինել AI For Bad. Օրինակ, AI-ի վրա հիմնված դեմքի ճանաչման տարբեր համակարգեր բացահայտվել են որպես ռասայական և գենդերային կողմնակալություններ պարունակող, որոնք ես քննարկել եմ հղումն այստեղ.

Դեմ պայքարելու ջանքերը AI For Bad ակտիվորեն ընթանում են։ Բացի աղմկոտ իրավական Սխալ արարքները զսպելու ձգտումները, կա նաև զգալի մղում դեպի AI էթիկան ընդունելու՝ AI-ի ստորությունը շտկելու համար: Հասկացությունը կայանում է նրանում, որ մենք պետք է ընդունենք և հաստատենք Արհեստական ​​ինտելեկտի էթիկական հիմնական սկզբունքները Արհեստական ​​ինտելեկտի զարգացման և ներդրման համար՝ դա անելով նվազեցնելու համար AI For Bad և միաժամանակ ազդարարելով և խթանելով նախընտրելիը AI For Good.

Համապատասխան հասկացության համաձայն՝ ես AI-ն օգտագործելու ջատագովն եմ՝ որպես արհեստական ​​ինտելեկտի դժբախտությունների լուծման մաս՝ կրակը կրակի հետ պայքարելով այդ մտածելակերպով: Օրինակ՝ մենք կարող ենք ներդնել Արհեստական ​​ինտելեկտի էթիկական բաղադրիչները արհեստական ​​ինտելեկտի համակարգում, որը կհետևի, թե ինչպես է AI-ի մնացած անդամներն անում բաներ և այդպիսով իրական ժամանակում պոտենցիալ կերպով կբռնեն ցանկացած խտրական ջանք, տես իմ քննարկումը. հղումն այստեղ. Մենք կարող ենք նաև ունենալ AI-ի առանձին համակարգ, որը հանդես է գալիս որպես AI Էթիկայի մոնիտոր: Արհեստական ​​ինտելեկտի համակարգը ծառայում է որպես վերահսկիչ՝ հետևելու և հայտնաբերելու, թե երբ է մեկ այլ AI գնում ոչ էթիկական անդունդ (տե՛ս նման հնարավորությունների իմ վերլուծությունը այստեղ՝ հղումն այստեղ).

Քիչ անց ես ձեզ հետ կկիսվեմ AI-ի էթիկայի հիմքում ընկած մի քանի հիմնական սկզբունքներով: Այս տեսակի ցուցակները շատ են լողում այս ու այն կողմ: Կարելի է ասել, որ դեռևս չկա համընդհանուր բողոքարկման և համաձայնության եզակի ցուցակ: Սա ցավալի լուր է: Լավ նորությունն այն է, որ գոնե կան AI-ի էթիկայի մատչելի ցուցակներ, և դրանք հակված են միանգամայն նման լինել: Ընդհանուր առմամբ, սա ենթադրում է, որ մի տեսակ հիմնավորված մերձեցման միջոցով մենք գտնում ենք մեր ճանապարհը դեպի ընդհանուր ընդհանրություն, թե ինչից է բաղկացած AI էթիկան:

Նախ, եկեք համառոտ անդրադառնանք էթիկական արհեստական ​​ինտելեկտի ընդհանուր կանոններից մի քանիսին, որպեսզի ցույց տանք, թե ինչ պետք է լինի կենսական նշանակություն ունեցող ցանկացած մարդու համար, ով արհեստագործում է, զբաղվում կամ օգտագործում է AI:

Օրինակ, ինչպես նշվում է Վատիկանի կողմից Հռոմը AI-ի էթիկայի կոչ է անում և քանի որ ես խորությամբ անդրադարձել եմ հղումն այստեղ, սրանք են նրանց բացահայտված AI-ի էթիկայի վեց հիմնական սկզբունքները.

  • Թափանցիկություն. Սկզբունքորեն, AI համակարգերը պետք է բացատրելի լինեն
  • Ներառումը. Պետք է հաշվի առնել բոլոր մարդկանց կարիքները, որպեսզի բոլորը կարողանան օգուտ քաղել, և բոլոր անհատներին առաջարկել լավագույն պայմաններն ինքնադրսևորվելու և զարգանալու համար։
  • Պատասխանատվություն ` Նրանք, ովքեր նախագծում և կիրառում են AI-ի օգտագործումը, պետք է գործեն պատասխանատվությամբ և թափանցիկությամբ
  • Անաչառություն. Մի ստեղծեք կամ մի գործեք ըստ կողմնակալության՝ դրանով իսկ պաշտպանելով արդարությունն ու մարդկային արժանապատվությունը
  • հուսալիություն: AI համակարգերը պետք է կարողանան հուսալիորեն աշխատել
  • Անվտանգություն և գաղտնիություն. AI համակարգերը պետք է ապահով աշխատեն և հարգեն օգտատերերի գաղտնիությունը:

Ինչպես նշված է ԱՄՆ պաշտպանության նախարարության (DoD) կողմից իրենց Արհեստական ​​ինտելեկտի օգտագործման էթիկական սկզբունքներ և քանի որ ես խորությամբ անդրադարձել եմ հղումն այստեղ, սրանք են AI-ի նրանց վեց հիմնական էթիկայի սկզբունքները.

  • Պատասխանատու: DoD անձնակազմը կկիրառի դատողության և խնամքի համապատասխան մակարդակներ՝ միաժամանակ պատասխանատու մնալով AI կարողությունների զարգացման, տեղակայման և օգտագործման համար:
  • Արդար: Դեպարտամենտը կանխամտածված քայլեր կձեռնարկի՝ նվազագույնի հասցնելու AI կարողությունների մեջ չնախատեսված կողմնակալությունը:
  • Հետագծելի: Դեպարտամենտի AI կարողությունները կզարգացվեն և կտեղակայվեն այնպես, որ համապատասխան անձնակազմը համապատասխան պատկերացում ունենա տեխնոլոգիայի, զարգացման գործընթացների և գործառնական մեթոդների մասին, որոնք կիրառելի են AI կարողությունների համար, ներառյալ թափանցիկ և աուդիտի ենթարկվող մեթոդաբանությունները, տվյալների աղբյուրները և նախագծման ընթացակարգն ու փաստաթղթերը:
  • Վստահելի: Դեպարտամենտի արհեստական ​​ինտելեկտի հնարավորությունները կունենան հստակ, հստակորեն սահմանված կիրառումներ, և նման հնարավորությունների անվտանգությունը, անվտանգությունը և արդյունավետությունը ենթակա կլինեն փորձարկման և հավաստիացման՝ սահմանված օգտագործման շրջանակում դրանց ողջ կյանքի ընթացքում:
  • Կառավարվող. Դեպարտամենտը նախագծելու և նախագծելու է AI-ի հնարավորությունները՝ իրականացնելու իրենց նախատեսված գործառույթները՝ միաժամանակ ունենալով անցանկալի հետևանքները հայտնաբերելու և խուսափելու, ինչպես նաև չնախատեսված վարք դրսևորող տեղակայված համակարգերը անջատելու կամ անջատելու կարողություն:

Ես նաև քննարկել եմ AI էթիկայի սկզբունքների տարբեր կոլեկտիվ վերլուծություններ, ներառյալ հետազոտողների կողմից մշակված մի շարք, որոնք ուսումնասիրել և խտացրել են բազմաթիվ ազգային և միջազգային AI էթիկայի դրույթների էությունը «Արհեստական ​​ինտելեկտի էթիկայի գլոբալ լանդշաֆտը» վերնագրով հոդվածում (հրատարակված): մեջ բնություն), և որ իմ լուսաբանումն ուսումնասիրում է հղումն այստեղ, որը հանգեցրեց այս հիմնական ցուցակին.

  • Թափանցիկություն
  • Արդարություն և արդարություն
  • Ոչ չարամտություն
  • պատասխանատվություն
  • Գաղտնիության
  • Բարեգործություն
  • Ազատություն և ինքնավարություն
  • Վստահեք
  • Կայունություն
  • Արժանապատվություն
  • Համերաշխություն

Ինչպես կարող եք ուղղակիորեն կռահել, այս սկզբունքների հիմքում ընկած առանձնահատկությունները պարզելու փորձը կարող է չափազանց դժվար լինել: Առավել եւս, որ այդ լայն սկզբունքները լիովին շոշափելի և բավականաչափ մանրամասն ինչ-որ բանի վերածելու ջանքերը, որոնք կարող են օգտագործվել արհեստական ​​ինտելեկտի համակարգեր ստեղծելու ժամանակ, նույնպես դժվար է կոտրել: Հեշտ է ընդհանուր առմամբ ձեռքով պարզել, թե ինչ են AI-ի էթիկայի կանոնները և ինչպես պետք է դրանք ընդհանուր առմամբ պահպանվեն, մինչդեռ AI կոդավորման մեջ շատ ավելի բարդ իրավիճակ է, որը պետք է լինի իրական ռետինը, որը համապատասխանում է ճանապարհին:

AI-ի էթիկայի սկզբունքները պետք է օգտագործվեն արհեստական ​​ինտելեկտի մշակողների կողմից, ինչպես նաև նրանք, ովքեր կառավարում են AI-ի զարգացման ջանքերը, և նույնիսկ նրանք, ովքեր, ի վերջո, կիրառում և պահպանում են AI համակարգերը: Բոլոր շահագրգիռ կողմերը AI-ի զարգացման և օգտագործման ողջ ցիկլի ընթացքում համարվում են Էթիկական AI-ի հաստատված նորմերին պահպանելու շրջանակում: Սա կարևոր կարևոր կետ է, քանի որ սովորական ենթադրությունն այն է, որ «միայն կոդավորողները» կամ նրանք, ովքեր ծրագրավորում են AI-ն, ենթակա են հավատարիմ մնալու AI-ի էթիկայի հասկացություններին: Ինչպես արդեն նշվեց, AI-ի մշակման և դաշտի մշակման համար անհրաժեշտ է գյուղ, և որի համար ամբողջ գյուղը պետք է տիրապետի և պահպանի AI-ի էթիկայի կանոնները:

Եկեք նաև համոզվենք, որ մենք նույն էջում ենք այսօրվա AI-ի բնույթի վերաբերյալ:

Այսօր չկա որևէ AI, որը զգայուն է: Մենք սա չունենք: Մենք չգիտենք, թե արդյոք հնարավո՞ր է խելացի AI-ն: Ոչ ոք չի կարող տեղին կանխագուշակել, թե արդյոք մենք կհասնենք խելամիտ AI-ին, և ոչ էլ արդյոք զգայական AI-ն ինչ-որ կերպ հրաշքով ինքնաբերաբար կառաջանա հաշվողական ճանաչողական գերնոր աստղի տեսքով (սովորաբար կոչվում է եզակիություն, տե՛ս իմ լուսաբանումը այստեղ. հղումն այստեղ).

AI-ի տեսակը, որի վրա ես կենտրոնանում եմ, բաղկացած է ոչ զգայուն AI-ից, որն այսօր ունենք: Եթե ​​ուզենայինք կատաղի ենթադրություններ անել զգայուն AI, այս քննարկումը կարող է գնալ արմատապես այլ ուղղությամբ: Զգացող AI-ն ենթադրաբար մարդկային որակի կլիներ: Պետք է հաշվի առնել, որ զգայուն AI-ն մարդու ճանաչողական համարժեքն է: Ավելին, քանի որ ոմանք ենթադրում են, որ մենք կարող ենք ունենալ սուպեր-խելացի AI, կարելի է պատկերացնել, որ այդպիսի AI-ն կարող է ավելի խելացի լինել, քան մարդիկ (սուպեր-խելացի AI-ի իմ հետազոտության համար, տես. լուսաբանումն այստեղ).

Եկեք ամեն ինչ ավելի պարզ պահենք և հաշվի առնենք այսօրվա հաշվողական ոչ զգայուն AI-ն:

Գիտակցեք, որ այսօրվա AI-ն ի վիճակի չէ «մտածել» մարդկային մտածողությանը հավասար: Երբ դուք շփվում եք Alexa-ի կամ Siri-ի հետ, խոսակցական կարողությունները կարող են նման լինել մարդկային կարողություններին, բայց իրականությունն այն է, որ այն հաշվողական է և չունի մարդկային ճանաչողություն: AI-ի վերջին դարաշրջանը լայնորեն օգտագործել է մեքենայական ուսուցում (ML) և Deep Learning (DL), որոնք օգտագործում են հաշվողական օրինաչափությունների համընկնումը: Սա հանգեցրել է արհեստական ​​ինտելեկտի համակարգերի, որոնք ունեն մարդու նման հակումների տեսք: Միևնույն ժամանակ, այսօր չկա որևէ արհեստական ​​բանականություն, որն ունի ողջամտության նմանություն և ոչ էլ ունի ուժեղ մարդկային մտածողության ճանաչողական հրաշք:

ML/DL-ը հաշվողական օրինաչափությունների համապատասխանության ձև է: Սովորական մոտեցումն այն է, որ դուք հավաքում եք տվյալներ որոշումներ կայացնելու առաջադրանքի վերաբերյալ: Դուք սնուցում եք տվյալները ML/DL համակարգչային մոդելների մեջ: Այդ մոդելները ձգտում են գտնել մաթեմատիկական օրինաչափություններ: Այդպիսի օրինաչափություններ գտնելուց հետո, եթե գտնվեն, ապա արհեստական ​​ինտելեկտի համակարգը կօգտագործի այդ օրինաչափությունները նոր տվյալների հանդիպելիս: Նոր տվյալների ներկայացումից հետո «հին» կամ պատմական տվյալների վրա հիմնված օրինաչափությունները կիրառվում են ընթացիկ որոշում կայացնելու համար:

Կարծում եմ, դուք կարող եք կռահել, թե ուր է սա գնում: Եթե ​​մարդիկ, ովքեր որոշումներ են կայացնում, իրենց մեջ ներդնում են անբարենպաստ կողմնակալություն, ապա հավանականությունն այն է, որ տվյալներն արտացոլում են դա նուրբ, բայց նշանակալի ձևերով: Մեքենայի ուսուցումը կամ խորը ուսուցման հաշվողական օրինաչափությունների համընկնումը պարզապես կփորձի համապատասխանաբար մաթեմատիկորեն նմանակել տվյալները: Առողջ դատողության կամ AI-ի կողմից ստեղծված մոդելավորման այլ զգալի ասպեկտներ ինքնին չկա:

Ավելին, AI մշակողները նույնպես կարող են չհասկանալ, թե ինչ է կատարվում: ML/DL-ի գաղտնի մաթեմատիկան կարող է դժվարացնել այժմ թաքնված կողմնակալությունների բացահայտումը: Դուք իրավամբ հույս կունենաք և ակնկալում եք, որ AI մշակողները կփորձարկեն պոտենցիալ թաղված կողմնակալության համար, թեև դա ավելի բարդ է, քան կարող է թվալ: Մեծ հավանականություն կա, որ նույնիսկ համեմատաբար լայնածավալ փորձարկումների դեպքում, ML/DL-ի օրինաչափությունների համապատասխանող մոդելներում դեռևս առկա կլինեն կողմնակալություններ:

Դուք կարող եք ինչ-որ չափով օգտագործել աղբի մեջ աղբի դուրս գալու հայտնի կամ տխրահռչակ ասացվածքը: Բանն այն է, որ սա ավելի շատ նման է կողմնակալություններին, որոնք նենգորեն ներարկվում են որպես AI-ի մեջ ընկղմված կողմնակալություններ: AI-ի որոշումների կայացման ալգորիթմը (ADM) աքսիոմատիկորեն ծանրաբեռնված է անհավասարություններով:

Ոչ լավ.

Եկեք վերադառնանք Red Flag AI օրենքներին մեր ուշադրությանը:

Հիմքում ընկած հայեցակարգն այն է, որ մարդիկ կկարողանան կարմիր դրոշ բարձրացնել, երբ հավատան, որ AI համակարգը գործում է անհարկի կողմնակալ կամ խտրական ձևով: Դուք ինքնին ֆիզիկական դրոշ չեք բարձրացնի, փոխարենը պարզապես կօգտագործեք որոշ էլեկտրոնային միջոցներ՝ ձեր մտահոգությունները հայտնի դարձնելու համար: Սխեմայի կամ մոտեցման կարմիր դրոշի մասը ավելի շատ փոխաբերություն է, քան ֆիզիկական մարմնավորում:

Ձևացրու, որ դիմում էիր տան վարկի համար: Դուք նախընտրում եք օգտվել առցանց բանկային ծառայությունից՝ վարկ ստանալու համար: Որոշ անձնական տվյալներ մուտքագրելուց հետո դուք մի պահ սպասում եք արհեստական ​​ինտելեկտի համակարգին, որն օգտագործվում է որոշելու՝ արժանի եք վարկին, թե ոչ: AI-ն ասում է ձեզ, որ ձեզ մերժել են վարկի համար: Բացատրություն խնդրելով, թե ինչու եք մերժվել, տեքստային պատմությունը կարծես հուշում է ձեզ, որ AI-ն օգտագործում էր անհարկի կողմնակալ գործոններ՝ որպես որոշումների կայացման ալգորիթմի մաս:

Արհեստական ​​ինտելեկտի մասին կարմիր դրոշ բարձրացնելու ժամանակն է:

Կոնկրետ որտե՞ղ է ծածանվելու այս կարմիր դրոշը:

Դա միլիոն դոլարի հարց է:

Տեսակետներից մեկն այն է, որ մենք պետք է ստեղծենք համազգային տվյալների բազա, որը թույլ կտա մարդկանց նշել իրենց AI-ին համապատասխան կարմիր դրոշները: Ոմանք ասում են, որ դա պետք է կարգավորվի դաշնային կառավարության կողմից։ Դաշնային գործակալությունները պատասխանատու կլինեն ուսումնասիրելու կարմիր դրոշները և օգնության հասնելու լայն հասարակությանը ճշմարտության և ենթադրաբար «վատ արհեստական ​​ինտելեկտի» հետ առնչվելու համար, որը բորբոքել է կարմիր դրոշի մասին հաշվետվությունները:

Կարմիր դրոշի ազգային AI օրենքը, կարծես, կստեղծվի Կոնգրեսի կողմից: Օրենքը պարզաբանում է, թե ինչ է AI-ին համապատասխան կարմիր դրոշը: Օրենքը նկարագրում է, թե ինչպես են բարձրացվում արհեստական ​​ինտելեկտի այս խայտառակ կարմիր դրոշները: Եվ այսպես շարունակ։ Կարող է նաև լինել այն դեպքը, երբ առանձին պետություններ նույնպես կարող են ընտրել իրենց սեփական Կարմիր դրոշի AI օրենքները մշակելու համար: Միգուցե նրանք դա անում են ազգային նախաձեռնության փոխարեն, կամ դա անում են, որպեսզի ընդլայնեն այն մանրամասները, որոնք հատկապես գրավիչ են իրենց կոնկրետ պետության համար:

Դաշնային կամ կառավարության կողմից աջակցվող Red Flag AI ծրագրի քննադատները կպնդեն, որ սա մի բան է, որը կարող է անել մասնավոր արդյունաբերությունը, և մենք կարիք չունենք, որ Մեծ Եղբայրը հայտնվի առաջին պլանում: Արդյունաբերությունը կարող է ստեղծել առցանց պահեստ, որտեղ մարդիկ կարող են գրանցել AI համակարգերի կարմիր դրոշներ: Արդյունաբերության կողմից ինքնակարգավորվող գործողությունը բավականաչափ կլուծի այս խնդիրները:

Արդյունաբերության ենթադրյալ մոտեցման հետ կապված անհանգստությունն այն է, որ թվում է, թե դա համերաշխության հոտ է գալիս: Արդյո՞ք ընկերությունները պատրաստ կլինե՞ն պահպանել մասնավոր Կարմիր դրոշի AI տվյալների բազան: Շատ ընկերություններ կարող են անտեսել իրենց արհեստական ​​ինտելեկտի մասին նշված կարմիր դրոշները: Սուր ատամներ չեն լինի, որպեսզի ընկերությունները զբաղվեն մուտքագրված կարմիր դրոշներով:

Հեյ, մասնավոր հատվածի մոտեցման կողմնակիցները հնչում են, սա նման կլինի Yelp-ի նման ազգային ծառայությանը: Սպառողները կարող են նայել կարմիր դրոշներին և ինքնուրույն որոշել՝ արդյոք ցանկանում են բիզնես վարել ընկերությունների հետ, որոնք հավաքել են արհեստական ​​ինտելեկտի վրա հիմնված կարմիր դրոշների մի շարք: Բանկը, որը տոննաներով կարմիր դրոշներ էր ստանում իր AI-ի մասին, պետք է ուշադրություն դարձնի և նորոգի իր AI համակարգերը, այնպես որ տրամաբանությունն ընթանում է, հակառակ դեպքում սպառողները ժանտախտի նման կխուսափեն ընկերությունից:

Անկախ նրանից, թե այս ամբողջ մոտեցումը ձեռնարկվում է կառավարության կամ արդյունաբերության կողմից, սա միայն սառցաբեկորի գագաթն է այն փշոտ հարցերի շուրջ, որոնց առջև ծառացած է առաջարկվող Կարմիր դրոշի արհեստական ​​ինտելեկտի օրենքների պոստուլատը:

Դրեք ձեզ մի ընկերության տեղը, որը մշակել կամ օգտագործում է AI: Կարող է լինել, որ սպառողները կարմիր դրոշակներ բարձրացնեն, թեև դրա համար ոչ մի կենսունակ հիմք չկա: Եթե ​​մարդիկ կարողանան ազատորեն կարմիր դրոշ փակցնել AI-ի մասին, նրանք կարող էին գայթակղվել դա անել քմահաճույքով, կամ գուցե վրեժ լուծելու համար մի ֆիրմայի դեմ, որը հակառակ դեպքում ոչ մի վատ բան չի արել սպառողի նկատմամբ:

Մի խոսքով, արհեստական ​​ինտելեկտի մասին կարող են լինել բազմաթիվ կեղծ դրական Կարմիր դրոշներ:

Մեկ այլ նկատառում է ստացված կարմիր դրոշների զանգվածային չափը կամ մեծությունը: Հեշտությամբ կարող են միլիոնավոր միլիոնավոր կարմիր դրոշներ բարձրացվել: Ո՞վ է հետամուտ լինելու այդ բոլոր կարմիր դրոշներին։ Որքա՞ն կարժենա դա անելը: Ո՞վ կվճարի կարմիր դրոշի հետագա ջանքերի համար: և այլն:

Եթե ​​դուք ասեիք, որ արհեստական ​​ինտելեկտի մասին կարմիր դրոշ գրանցող կամ զեկուցող ցանկացած անձ պետք է վճար վճարի, դուք մտել եք մռայլ ու նենգ տիրույթ: Մտահոգությունը կլինի այն, որ միայն հարուստները կկարողանան իրենց թույլ տալ կարմիր դրոշներ բարձրացնել: Սա իր հերթին ենթադրում է, որ աղքատները չեն կարողանա հավասարապես մասնակցել կարմիր դրոշի գործողություններին և, ըստ էության, չունեն նախազգուշացման վայր անբարենպաստ AI-ի մասին:

Առայժմ ևս մեկ լրացուցիչ շրջադարձ, այն է, որ արհեստական ​​ինտելեկտի մասին կարմիր դրոշի նման օրենքները կամ ուղեցույցները կարծես թե փաստից հետո են, այլ ոչ թե նախապես նախազգուշացում լինելու համար:

Վերադառնալով Կարմիր դրոշի երթևեկության օրենքներին, կարմիր դրոշի կիրառման շեշտադրումը սկզբնական աղետից խուսափելն էր: Կարմիր դրոշի ծածանիչը պետք է շատ առաջ լիներ գալիք մեքենայից: Մեքենայից առաջ լինելով՝ անասուններին կզգուշացնեն, և նրանք, ովքեր հսկում են անասուններին, կիմանան, որ պետք է նախազգուշական միջոցներ ձեռնարկեն՝ շուտով ժամանող անհանգստացնող աղբյուրի պատճառով:

Եթե ​​մարդիկ կարող են միայն կարմիր դրոշ բարձրացնել արհեստական ​​ինտելեկտի մասին, որը թվացյալ արդեն վնաս է հասցրել կամ խաթարել է նրանց իրավունքները, ապա առած ձին արդեն դուրս է եկել գոմից: Այն ամենը, ինչ թվում է, որ դա արվում է այն է, որ հուսով ենք, որ մյուս մարդիկ, ովքեր գալիս են, այժմ կիմանան զգուշանալ այդ AI համակարգից: Մինչդեռ, իբր անիրավության ենթարկվածն արդեն տուժել է։

Ոմանք առաջարկում են, որ միգուցե մենք կարող ենք թույլ տալ, որ մարդիկ կարմիր դրոշներ բարձրացնեն արհեստական ​​ինտելեկտի մասին, որ նրանք իրենք են կասկածել կարող են կողմնակալ լինել, նույնիսկ եթե նրանք չեն օգտագործել AI-ն և անմիջականորեն չեն ազդվել AI-ի կողմից: Այսպիսով, կարմիր դրոշը ծածանվում է նախքան վնասը հասցնելը:

Այո՛, պատասխանում եմ, որ դուք իսկապես պատրաստվում եք արհեստական ​​ինտելեկտի դեմ պայքարող կարմիր դրոշները վերածել միանգամայն անկառավարելի և քաոսային գործի: Եթե ​​որևէ մեկը ինչ-ինչ պատճառով կարող է կարմիր դրոշ բարձրացնել AI համակարգի մասին, չնայած որ ընդհանրապես ոչինչ չի արել այդ AI-ի հետ, դուք կհեղեղվեք կարմիր դրոշներով: Դեռ ավելի վատ, դուք չեք կարողանա ցորենը ցորենից տարբերել: Կարմիր դրոշի ամբողջ մոտեցումը կփլուզվի իր ծանրության տակ՝ իջնելով գաղափարի լավությունը՝ թույլ տալով flotsam-ին և riffraff-ին խորտակել ամբողջ նավը:

Գլխապտույտ և շփոթեցնող.

Այս ծանրակշիռ քննարկման այս պահին ես գրազ կգամ, որ դուք ցանկանում եք որոշ պատկերավոր օրինակներ, որոնք կարող են ցուցադրել այս թեման: Կա հատուկ և վստահաբար սիրված օրինակների հավաքածու, որն ինձ հոգեհարազատ է: Տեսեք, որպես AI-ի փորձագետ, ներառյալ էթիկական և իրավական հետևանքները, ինձ հաճախ խնդրում են բացահայտել իրատեսական օրինակներ, որոնք ցույց են տալիս արհեստական ​​ինտելեկտի էթիկայի երկընտրանքները, որպեսզի թեմայի տեսական բնույթն ավելի հեշտությամբ ընկալվի: Ամենաոգեշնչող ոլորտներից մեկը, որը վառ կերպով ներկայացնում է այս էթիկական AI-ի խնդիրը, արհեստական ​​ինտելեկտի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելն է: Սա կծառայի որպես հարմար օգտագործման դեպք կամ օրինակ՝ թեմայի շուրջ լայն քննարկման համար:

Ահա մի ուշագրավ հարց, որի մասին արժե մտածել. Արդյո՞ք արհեստական ​​ինտելեկտի վրա հիմնված իսկական ինքնակառավարվող մեքենաների հայտնվելը որևէ բան լուսաբանում է Կարմիր դրոշի AI օրենքների մասին, և եթե այո, ի՞նչ է սա ցույց տալիս:

Թույլ տվեք մի պահ բացել հարցը:

Նախ, նշեք, որ իրական ինքնակառավարվող մեքենայի մեջ մարդ վարորդ չկա: Հիշեք, որ իսկական ինքնակառավարվող մեքենաները վարում են AI վարորդական համակարգի միջոցով: Ղեկին մարդ վարորդի կարիք չկա, մեքենան վարելու համար մարդ չկա: Ինքնավար տրանսպորտային միջոցների (ԱՎ) և հատկապես ինքնակառավարվող մեքենաների իմ լայնածավալ և շարունակական լուսաբանման համար տե՛ս. հղումն այստեղ.

Ես կցանկանայի ավելի պարզաբանել, թե ինչ է նշանակում, երբ ես վերաբերում եմ իրական ինքնակառավարվող մեքենաներին:

Հասկանալով ինքնակառավարվող մեքենաների մակարդակները

Որպես պարզաբանում, իսկական ինքնակառավարվող մեքենաներն այն մեքենաներն են, որտեղ AI-ն ամբողջությամբ ինքնուրույն է վարում մեքենան, և վարորդական առաջադրանքի ընթացքում մարդկային օգնություն չի ցուցաբերվում:

Այս առանց վարորդի տրանսպորտային միջոցները համարվում են 4-րդ և 5-րդ մակարդակներ (տե՛ս իմ բացատրությունը այս հղումը Մականուն), մինչդեռ մեքենան, որը մարդկային վարորդից պահանջում է համատեղ ջանքեր գործադրել, սովորաբար դիտարկվում է 2-րդ կամ 3-րդ մակարդակում: Մեքենաները, որոնք համատեղ կատարում են վարորդական առաջադրանքը, նկարագրվում են որպես կիսաինքնավար և սովորաբար պարունակում են մի շարք մեքենաներ: ավտոմատացված հավելումներ, որոնք կոչվում են ADAS (Վարորդների օգնության առաջադեմ համակարգեր):

5-րդ մակարդակում դեռ իրական ինքնակառավարվող մեքենա չկա, և մենք դեռ չգիտենք, թե արդյոք դա հնարավոր կլինի հասնել, և որքան ժամանակ կպահանջվի այնտեղ հասնելու համար:

Միևնույն ժամանակ, 4-րդ մակարդակի ջանքերը աստիճանաբար փորձում են որոշակի ձգողականություն ձեռք բերել՝ անցնելով շատ նեղ և ընտրովի հանրային ճանապարհային փորձարկումներ, թեև հակասություններ կան այն հարցի շուրջ, թե արդյոք այս թեստավորումն ինքնին պետք է թույլատրվի (մենք բոլորս փորձի մեջ կյանքի կամ մահվան ծովախոզուկներ ենք: ոմանք պնդում են, որ տեղի է ունենում մեր մայրուղիներում և ճանապարհների վրա, տես իմ լուսաբանումը այս հղումը Մականուն).

Քանի որ կիսաավտոմեքենաները մարդկային վարորդ են պահանջում, այդպիսի մեքենաների ընդունումը չի տարբերվի սովորական տրանսպորտային միջոցներից վարվելուց, հետևաբար, այս թեմայի շուրջ դրանց մասին ծածկելու համար ամենևին էլ նոր բան չկա (չնայած, ինչպես կտեսնեք մի ակնթարթում ընդհանուր առմամբ կիրառվում են հաջորդ կետերը):

Կիսաանվտանգ ավտոմեքենաների համար կարևոր է, որ հասարակությունը պետք է նախազգուշացվի վերջին շրջանում ի հայտ եկած անհանգստացնող կողմի մասին, մասնավորապես այն, որ չնայած այն մարդկային վարորդներին, ովքեր շարունակում են փակցնել իրենց տեսահոլովակները իրենց մասին, քնում են «Level 2» կամ «Level 3» մեքենայի ղեկին: , մենք բոլորս պետք է խուսափենք ապակողմնորոշվելուց `հավատալով, որ վարորդը կարող է իրենց ուշադրությունը հանել վարորդական առաջադրանքից` կիսաավտոմեքենան վարելիս:

Դուք պատասխանատու կողմն եք տրանսպորտային միջոցի վարման գործողությունների համար, անկախ նրանից, թե որ ավտոմատացումը կարող է տեղափոխվել 2-րդ մակարդակի կամ 3-րդ մակարդակի:

Ինքնավար մեքենաների և Կարմիր դրոշի AI օրենքները

4-րդ և 5-րդ մակարդակների իսկական ինքնագնաց տրանսպորտային միջոցների համար վարորդական գործին չի մասնակցի մարդկային վարորդ:

Բոլոր գրավյալները ուղևորներ են լինելու:

AI- ն վարում է վարումը:

Անմիջապես քննարկելու մի ասպեկտ ենթադրում է այն փաստը, որ այսօր AI- ի վարման համակարգերում ներգրավված AI- ն զգայուն չէ: Այլ կերպ ասած, AI- ն ընդհանուր առմամբ համակարգչային ծրագրավորման և ալգորիթմների հավաքածու է, և, անկասկած, ի վիճակի չէ տրամաբանել այնպես, ինչպես մարդիկ կարող են:

Ինչու՞ է այս հավելյալ շեշտադրումը արհեստական ​​ինտելեկտի մասին զգացմունքային չէ:

Քանի որ ես ուզում եմ ընդգծել, որ երբ քննարկում եմ AI շարժիչ համակարգի դերը, ես մարդկային որակներ չեմ վերագրում AI- ին: Խնդրում ենք տեղյակ լինել, որ այս օրերին շարունակական և վտանգավոր միտում կա AI- ն մարդաբանելու համար: Ըստ էության, մարդիկ մարդկային նման զգացողություն են հատկացնում այսօրվա AI- ին, չնայած անհերքելի և անառարկելի փաստին, որ այդպիսի AI դեռ գոյություն չունի:

Այդ պարզաբանմամբ դուք կարող եք պատկերացնել, որ AI վարելու համակարգը բնիկ ինչ-որ կերպ «չի իմանա» վարման կողմերի մասին: Վարորդությունն ու դրա հետևանքները պետք է ծրագրավորվեն որպես ինքնակառավարվող մեքենայի սարքավորումների և ծրագրակազմի մաս:

Եկեք սուզվենք այն անհամար ասպեկտների մեջ, որոնք սկսում են խաղալ այս թեմայի շուրջ:

Նախ, կարևոր է գիտակցել, որ ոչ բոլոր ինքնակառավարվող AI մեքենաները նույնն են: Յուրաքանչյուր ավտոարտադրող և ինքնակառավարվող տեխնոլոգիական ընկերություն իր մոտեցումն է ցուցաբերում ինքնակառավարվող մեքենաների ստեղծման հարցում: Որպես այդպիսին, դժվար է լայնածավալ հայտարարություններ անել այն մասին, թե ինչ կանեն կամ չեն անեն AI վարորդական համակարգերը:

Ավելին, ամեն անգամ, երբ նշվում է, որ արհեստական ​​ինտելեկտի կառավարման համակարգը որոշակի բան չի անում, դա հետագայում կարող է շրջանցվել այն մշակողների կողմից, որոնք իրականում ծրագրավորում են համակարգիչը հենց դա անելու համար: Քայլ առ քայլ, արհեստական ​​ինտելեկտի շարժիչ համակարգերը աստիճանաբար բարելավվում և ընդլայնվում են: Այսօր գոյություն ունեցող սահմանափակումն այլևս գոյություն չի ունենա համակարգի ապագա կրկնության կամ տարբերակի դեպքում:

Հուսով եմ, որ դա բավարար քանակությամբ զգուշացումներ է տալիս՝ հիմքում ընկնելու այն, ինչ ես պատրաստվում եմ պատմել:

Եկեք ուրվագծենք մի սցենար, որը կարող է ազդել Կարմիր դրոշի AI օրենքի վրա:

Դուք նստում եք AI-ի վրա հիմնված ինքնակառավարվող մեքենա և ցանկանում եք, որ ինքնավար մեքենան ձեզ տանի ձեր տեղական մթերային խանութ: Համեմատաբար կարճ ճանապարհորդության ընթացքում AI-ն անցնում է մի երթուղի, որը ձեզ ինչ-որ չափով սխալ է թվում: Ամենաուղղակի ճանապարհով գնալու փոխարեն AI-ն նավարկում է դեպի ճանապարհից դուրս գտնվող փողոցներ, ինչը հանգեցնում է նրան, որ վարելու ժամանակը ավելի մեծ է, քան սովորաբար կարող էր լինել:

Ինչ է կատարվում?

Ենթադրելով, որ դուք վճարում եք ինքնակառավարվող մեքենայի օգտագործման համար, դուք կարող եք կասկածել, որ AI-ն ծրագրված է վարել ավելի երկար ճանապարհ՝ փորձելով բարձրացնել ուղևորության ուղեվարձը կամ արժեքը: Յուրաքանչյուր ոք, ով երբևէ վերցրել է սովորական մարդավարի տնակ, գիտի, թե ինչ խորամանկություն կարող է տեղի ունենալ՝ չափիչի վրա ավելի շատ խմոր ստանալու համար: Իհարկե, երբ մարդիկ իրենց սմարթֆոնների վրա ունեն GPS, երբ նստում են տաքսի կամ դրան համարժեք մեքենա, դուք հեշտությամբ կարող եք բռնել մարդու վարորդին, որը կարծես թե գաղտագողի գնում է անհարկի երկար ճանապարհներ:

Պարզվում է, որ դուք ևս մեկ մտահոգություն ունեք երթուղու ընտրության հետ կապված, մի բան, որն իսկապես կրծում է ձեզ:

Ենթադրենք, որ երթուղին արվել է քաղաքի որոշ հատվածներից խուսափելու համար՝ ռասայական երևույթների պատճառով: Կան մարդկային վարորդների փաստագրված դեպքեր, որոնք բռնվել են նման ընտրություն կատարելիս, տես իմ քննարկումը այստեղ հղումն այստեղ. Հավանաբար, AI-ն դրա վրա բացասաբար է ծրագրավորվել:

Դուք որոշում եք կարմիր դրոշ բարձրացնել:

Քննարկման համար ենթադրենք, որ ընդունվել է Կարմիր դրոշով AI օրենք, որն ընդգրկում է ձեր իրավասությունը: Դա կարող է լինել տեղական իրավունք, նահանգային իրավունք, դաշնային կամ միջազգային իրավունք: Այն վերլուծության համար, որը ես համահեղինակել եմ Հարվարդի Ինքնավար Տրանսպորտային Քաղաքական Նախաձեռնության (AVPI) հետ տեղական ղեկավարության աճող կարևորության մասին, երբ համայնքները ընդունում են ինքնակառավարվող մեքենաների օգտագործումը, տե՛ս. հղումն այստեղ.

Այսպիսով, դուք առցանց գնում եք Red Flag AI տվյալների բազա: Միջադեպերի տվյալների բազայում դուք մուտքագրում եք տեղեկատվությունը ինքնակառավարվող մեքենայով ճանապարհորդության մասին: Սա ներառում է մեքենա վարելու ամսաթիվը և ժամը, ինչպես նաև ինքնակառավարվող մեքենայի ապրանքանիշը և մոդելը: Այնուհետև դուք մտնում եք նավարկության երթուղին, որը թվում էր, թե կասկածելի է, և դուք առաջարկում եք կամ գուցե ուղղակի պնդում եք, որ AI-ն ստեղծվել է կանխակալ կամ խտրական մտադրությամբ և կարողություններով:

Մենք պետք է գուշակենք Կարմիր դրոշի արհեստական ​​ինտելեկտի մասին օրենքի այլ մանրամասների վերաբերյալ, թե ինչ է տեղի ունենում հետագայում այս կոնկրետ սցենարում: Տեսականորեն դրույթ կլիներ, որ ինչ-որ մեկը վերանայեր կարմիր դրոշը: Նրանք հավանաբար կձգտեն ստիպել ավտոարտադրողին կամ ինքնակառավարվող տեխնոլոգիական ընկերությանը բացատրել իրենց տեսակետը գրանցված կարմիր դրոշի վերաբերյալ: Քանի՞ այլ նման կարմիր դրոշ է գրանցվել։ Ի՞նչ արդյունքներ տվեցին այդ կարմիր դրոշները:

Եվ այսպես շարունակ դա կանցնի:

Եզրափակում

Անհեթեթ, որոշ թերահավատներ հորդորում են.

Մեզ Կարմիր դրոշի AI օրենքները պետք չեն, դրանք խստորեն գործադրում են: Նման որևէ բան անելը կխաթարի աշխատանքը, երբ խոսքը վերաբերում է AI-ի տեմպերին և առաջընթացին: Ցանկացած նման օրենք անտանելի կլինի: Դուք կստեղծեիք խնդիր, որը խնդիր չի լուծում: AI-ի հետ գործ ունենալու այլ եղանակներ կան, որոնք վատ են: Կուրորեն մի բռնեք ծղոտներից՝ կանխակալ AI-ի դեմ պայքարելու համար:

Փոխելով փոխանցումները՝ մենք բոլորս գիտենք, որ ցլամարտիկները օգտագործում են կարմիր թիկնոցներ՝ ակնհայտորեն զայրացած ցլի ուշադրությունը գրավելու համար: Թեև կարմիրը այն գույնն է, որը մենք ամենից շատ կապում ենք այս պրակտիկայի հետ, դուք կարող եք զարմանալ, երբ իմանաք, որ գիտնականներն ասում են, որ ցուլերը չեն ընկալում մուլետայի կարմիր գույնը (նրանք կարմիր գույնից կույր են): Հանրաճանաչ շոու Առասպելներ բավականին զվարճալի քննություն արեց այս հարցի վերաբերյալ: Քեյփի շարժումը հիմնական տարրն է, քան ընտրված գույնը:

Նրանց համար, ովքեր մի կողմ են թողնում Կարմիր դրոշի արհեստական ​​ինտելեկտի օրենքների անհրաժեշտությունը, հակընդդեմ հայցն այն է, որ մեզ անհրաժեշտ է դրամատիկ և անսխալ ալիքային բնույթ՝ համոզվելու համար, որ AI ծրագրավորողները և AI կիրառող ընկերությունները զերծ կմնան կողմնակալ կամ վատ AI-ից: Եթե ​​ոչ կարմիր դրոշի համար, միգուցե ծածանվող թիկնոցը կամ, ըստ էության, ցանկացած զգուշացնող մոտեցում կարող է լինել պատշաճ ուշադրության տիրույթում:

Մենք հաստատ գիտենք, որ վատ արհեստական ​​ինտելեկտը գոյություն ունի, և որ շատ ավելի վատ AI-ն գնալու է մեր ուղղությամբ: Բացասական AI-ից պաշտպանվելու ուղիներ գտնելը շատ կարևոր է: Նմանապես, նույնքան կարևոր է պաշտպանական բազրիքներ տեղադրել, որոնք փորձում են կանխել վատ AI-ի մուտքն աշխարհ:

Էռնեստ Հեմինգուեյը հայտնի է, որ ոչ ոք երբեք չի ապրում մինչև վերջ, բացի ցլամարտիկներից: Մենք պետք է համոզվենք, որ մարդիկ կարող են ապրել իրենց կյանքը մինչև վերջ՝ չնայած արհեստական ​​ինտելեկտի ցանկացած վատությանը կամ խելագարությանը, որը տարածվում է մեզ վրա:

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- biased-algorithms-in-autonomous-ai-systems/