AI ētika ir skeptiska par tā saukto sarkanā karoga AI likumu ieviešanu neobjektīvu algoritmu izsaukšanai autonomās AI sistēmās

Parunāsim par Sarkanā karoga likumiem.

Jūs neapšaubāmi zināt, ka Sarkanā karoga likumu jēdziens pēdējā laikā ir plaši atspoguļots ziņās. Virsrakstu, kas aptver šo tēmu, ir daudz. Kaislības un kaislīgas debates par šādiem jautājumiem ir aktuālas sabiedrības interesēs, un tās ietver mūsdienu un strauji topošos sarkano karogu ieroču likumus.

Es tomēr uzdrošinos teikt, ka jūs, iespējams, nezināt citus Sarkanā karoga likumus, kas tika pieņemti 1800. gadu beigās attiecībā uz motorizētiem transportlīdzekļiem un mūsdienu ikdienas moderno automašīnu priekštečiem. Jā, tieši tā, Sarkanā karoga likumi aizsākās vēsturē, lai gan aptver citas tēmas salīdzinājumā ar mūsdienu fokusu. Tos parasti sauc par Sarkanā karoga satiksmes likumiem.

Šie tagad gadsimtu vecie un pavisam nedzīvie likumi noteica, ka jebkuram motorizētam ratam vai dzinējam, ko darbina tvaiks, tajā laikā bija jābūt pieaugušajam pirms transportlīdzekļa un brīdinājuma nolūkos jānēsā sarkanais karogs. Doma bija tāda, ka mājlopus varētu satraukt šie trokšņainie un apburošie ķermeņi, kas lēni un nevienmērīgi muca pa netīrumiem vai nedaudz asfaltētiem ceļiem, tādējādi, ja kāds staigātu pa priekšu, enerģiski vicinot sarkano karogu, varētu izvairīties no nelaimēm. Ja jums radās jautājums, uz dzelzceļiem un vilcieniem neattiecas tie paši likumi, jo tie bija transportlīdzekļi, kas ir cieši saistīti ar sliedēm, un uz tiem attiecas citi likumi.

Iedomājieties, ka šodien ir jāvicina sarkanie karogi kā prasība katrai automašīnai uz mūsu koplietošanas ceļiem.

Piemēram, parastam autobraucējam, kas izbrauc pa jūsu apkaimes ielu, būtu jāpārliecinās, vai pieaugušais, kas vicina sarkano karogu, ir klāt un ir parādījies braucošās automašīnas priekšā. Tam būtu jānotiek katram transportlīdzeklim, kas brauc pa jūsu ielu. Varbūt cilvēki kļūtu par sarkano karogu strādniekiem, kas nolīgtu garāmbraucošus automašīnu vadītājus, kuriem citādi nebūtu draugu vai radinieku, kas varētu iet viņiem priekšā un veikt noteikto vicināšanu.

Ar automaģistrālēm saistītu sarkano karogu vicināšanu mūsdienās mēdzam asociēt ar ceļu būvlaukumiem. Tuvojoties izraktam ceļam, strādnieki turēs augstu sarkano karogu, lai piesaistītu jūsu uzmanību. Tas liek jums samazināt ātrumu un būt modram. Var būt buldozers, kas iegriezīsies jūsu ceļā. Priekšā var būt milzīgs caurums, un jums būs uzmanīgi jāšķērso tai apkārt.

Bet atgriezīsimies pie sarkano karogu izmantošanas 1800. gados.

Ticiet vai nē, bet sarkanajam karogam bija jāatrodas vismaz vienu astoto daļu jūdzes pirms gaidāmās motorizētās mašīnas. Šķiet, ka tas ir diezgan garš attālums. Tomēr var pieņemt, ka tajās dienās tam bija liela jēga. Ar satriecošiem dzinēja trokšņiem un, iespējams, ar transportlīdzekļa skatu vien pietiks, lai dzīvniekus satrauktu. Daži no tā laikmeta Sarkanā karoga likumiem arī noteica, ka nakts laikā ir jāuztur spīdoša sarkana gaisma, lai no aptumšota attāluma būtu redzams vizuāli redzams sarkans piesardzības brīdinājums.

Kopumā, manuprāt, ir godīgi apgalvot, ka mēs kā sabiedrība mēdzam asociēt sarkano karogu kā signālu vai zīmi, ka kaut kas, iespējams, nav kārtībā vai vismaz tam ir nepieciešama mūsu uzticīga uzmanība.

Sagatavojieties nedaudz pavērsienam šajā sarkanā karoga fenomenā.

Pastāv apgalvojums, ka mums ir jāpieprasa sarkanā karoga noteikumi attiecībā uz mākslīgo intelektu (AI).

Tas ir nedaudz satriecošs un pārsteidzošs jēdziens, kas daudziem liek saskrāpēt galvu. Jūs varētu būt neizpratnē par to, kā vai kāpēc vajadzētu būt t.s Sarkanā karoga AI likumi. Lūdzu, ņemiet vērā, ka es to apzīmēju kā sarkanā karoga AI likumus, lai tos nošķirtu no sarkanā karoga satiksmes likumiem (piemēram, 1800. gadu beigām) un arī lai tos atšķirtu no citiem mūsdienās izplatītākajiem sarkano karogu ieroču likumiem.

Vai mums tiešām ir vajadzīgi sarkanā karoga AI likumi, kas ir skaidri un vienīgi orientēti uz AI jautājumiem?

Tie, kas atbalsta ierosināto pieeju, uzstātu, ka mums noteikti ir vajadzīgas tiesību normas, kas palīdzētu ierobežot AI, kas satur nepamatotus aizspriedumus un darbojas diskriminējoši. Pašlaik mākslīgā intelekta izveide un ieviešana ir līdzīga savvaļas rietumiem, kas ir jebkas. Centieni ierobežot slikto AI pašlaik ir atkarīgi no AI ētikas vadlīniju formulējuma un pieņemšanas. Manu pastāvīgo un plašo AI ētikas un ētiskās AI atspoguļojumu skatiet saite šeit un saite šeit, tikai nosaukt dažus.

Lēnām tiek izstrādāti un ieviesti likumi, kas nosaka sliktu AI. Skatiet manus rakstus vietnē saite šeit. Daži uztraucas, ka likumdevēji nerīkojas pietiekami ātri. Šķiet, ka šobrīd pasaulē ir plaši atvērti plūdu vārti, kas ļauj veicināt neobjektīvu AI. Roku locīšana saka, ka brīdī, kad grāmatās nonāks jauni likumi, ļaunais džins jau būs ārā no pudeles.

Ne tik ātri, pretargumenti aiziet. Bažas rada tas, ka, ja likumi tiks ieviesti pārāk ātri, mēs it kā nogalināsim zelta zosu, līdz ar to mākslīgā intelekta centieni izsīks un mēs neiegūsim jauno AI sistēmu sabiedriski veicinošos ieguvumus. AI izstrādātāji un uzņēmumi, kas vēlas izmantot mākslīgo intelektu, var satraukties, ja federālā, štata un vietējā līmenī pēkšņi tiks ieviesti jauni bizantiešu AI likumi, nemaz nerunājot par starptautiskiem ar AI saistītiem likumiem, kas arī virzās uz priekšu.

Šajā netīrajā afērā tiek aicināts izstrādāt sarkanā karoga AI likumus.

Pirms ķerties pie gaļas un kartupeļiem par savvaļas un vilnas apsvērumiem, kas ir iecerētā Sarkanā karoga AI likuma pamatā, noteiksim dažus papildu pamatus par ļoti būtiskām tēmām. Mums ir īsi jāiedziļinās AI ētikā un jo īpaši mašīnmācīšanās (ML) un dziļās mācīšanās (DL) parādīšanās.

Jūs varētu neskaidri apzināties, ka mūsdienās viena no skaļākajām balsīm AI jomā un pat ārpus AI jomas ir aicinājums pēc lielākas ētiskā AI līdzības. Apskatīsim, ko nozīmē atsaukties uz AI ētiku un ētisko AI. Papildus tam mēs izpētīsim, ko es domāju, runājot par mašīnmācīšanos un padziļinātu mācīšanos.

Viens konkrēts mākslīgā intelekta ētikas segments vai daļa, kas ir saņēmusi lielu plašsaziņas līdzekļu uzmanību, ir mākslīgais intelekts, kas demonstrē nevēlamus aizspriedumus un nevienlīdzību. Jūs varētu zināt, ka tad, kad sākās jaunākā AI ēra, bija milzīgs entuziasma uzliesmojums par to, ko daži tagad sauc. AI uz labu. Diemžēl mēs sākām būt liecinieki šim uzliesmojumam AI For Bad. Piemēram, ir atklāts, ka dažādas uz AI balstītas sejas atpazīšanas sistēmas satur rasu un dzimuma aizspriedumus, par ko esmu runājis saite šeit.

Centieni cīnīties pret AI For Bad aktīvi norisinās. Turklāt skaļš juridisks Mēģinot savaldīt pārkāpumus, notiek arī būtisks grūdiens AI ētikas ievērošanai, lai izlabotu AI neģēlību. Domājams, ka mums ir jāpieņem un jāapstiprina galvenie ētiskie AI principi AI izstrādei un izmantošanai, tādējādi samazinot AI For Bad un vienlaikus sludinot un popularizējot vēlamo AI uz labu.

Saistībā ar to es iestājos par mēģinājumu izmantot AI kā daļu no AI problēmu risinājuma, cīnoties pret uguni ar uguni šādā domāšanas veidā. Piemēram, mēs varētu iegult ētiskos AI komponentus AI sistēmā, kas uzraudzīs, kā pārējais AI dara lietas, un tādējādi, iespējams, reāllaikā uztvers jebkādus diskriminējošus centienus. Skatiet manu diskusiju vietnē saite šeit. Mums varētu būt arī atsevišķa AI sistēma, kas darbojas kā AI ētikas monitora veids. AI sistēma kalpo kā pārraugs, lai izsekotu un noteiktu, kad cits AI nonāk neētiskajā bezdibenī (skatiet manu analīzi par šādām iespējām vietnē saite šeit).

Pēc brīža es dalīšos ar dažiem visaptverošiem principiem, kas ir AI ētikas pamatā. Šur tur ir daudz šāda veida sarakstu. Varētu teikt, ka vēl nav vienota universālas pievilcības un vienprātības saraksta. Tā ir nelaimīgā ziņa. Labā ziņa ir tā, ka vismaz ir viegli pieejami AI ētikas saraksti, un tie mēdz būt diezgan līdzīgi. Kopumā tas liek domāt, ka ar sava veida pamatotu konverģenci mēs atrodam ceļu uz vispārēju kopību tam, no kā sastāv AI ētika.

Pirmkārt, īsi apskatīsim dažus vispārējos ētiskā AI priekšrakstus, lai ilustrētu, kam vajadzētu būt ļoti svarīgam ikvienam, kas izstrādā, izmanto vai izmanto AI.

Piemēram, kā to norādījis Vatikāns Roma aicinājums uz AI ētiku un kā esmu padziļināti aprakstījis plkst saite šeit, šie ir viņu identificētie seši galvenie AI ētikas principi:

  • Pārredzamība: Principā AI sistēmām ir jābūt izskaidrojamām
  • Iekļaušana: Ir jāņem vērā visu cilvēku vajadzības, lai ikviens varētu gūt labumu un visiem indivīdiem varētu piedāvāt vislabākos iespējamos apstākļus, lai izpaustos un attīstītos.
  • Atbildība: Tiem, kas izstrādā un ievieš AI izmantošanu, ir jārīkojas atbildīgi un pārredzami
  • objektivitāte: Neveidojiet un nerīkojieties saskaņā ar aizspriedumiem, tādējādi aizsargājot godīgumu un cilvēka cieņu
  • Uzticamība: AI sistēmām jāspēj darboties uzticami
  • Drošība un privātums: AI sistēmām ir jādarbojas droši un jāievēro lietotāju privātums.

Kā norādīja ASV Aizsardzības departaments (DoD) savā Mākslīgā intelekta izmantošanas ētikas principi un kā esmu padziļināti aprakstījis plkst saite šeit, šie ir viņu seši galvenie AI ētikas principi:

  • Atbildīgais: DoD darbinieki veiks atbilstošu spriedumu un rūpību, vienlaikus paliekot atbildīgi par AI iespēju izstrādi, izvietošanu un izmantošanu.
  • Taisnīgs: Departaments veiks apzinātus pasākumus, lai samazinātu neparedzētu AI iespēju novirzi.
  • Izsekojams: Departamenta mākslīgā intelekta iespējas tiks izstrādātas un izvietotas tā, lai attiecīgajam personālam būtu atbilstoša izpratne par tehnoloģijām, izstrādes procesiem un darbības metodēm, kas piemērojamas mākslīgā intelekta spējām, tostarp par pārredzamām un pārbaudāmām metodoloģijām, datu avotiem, kā arī projektēšanas procedūrām un dokumentāciju.
  • Reliable: Departamenta mākslīgā intelekta iespējām būs skaidri, precīzi definēti lietojumi, un šādu iespēju drošība, drošība un efektivitāte tiks pārbaudīta un garantēta noteiktajos lietojumos visā to dzīves ciklā.
  • Pārvaldāms: Departaments izstrādās un izstrādās mākslīgā intelekta iespējas, lai tās varētu izpildīt paredzētās funkcijas, vienlaikus spējot atklāt un izvairīties no neparedzētām sekām, kā arī atslēgt vai deaktivizēt izvietotās sistēmas, kas demonstrē neparedzētu uzvedību.

Esmu arī apspriedis dažādas AI ētikas principu kolektīvās analīzes, tostarp aptvēru pētnieku izstrādāto kopumu, kurā tika pārbaudīta un apkopota daudzu nacionālo un starptautisko AI ētikas principu būtība rakstā “The Global Landscape Of AI Ethics Guidelines” (publicēts). iekšā daba), un ka mans pārklājums pēta plkst saite šeit, kas noveda pie šī stūrakmens saraksta:

  • Caurspīdīgums
  • Taisnīgums un godīgums
  • Ne-ļaunprātība
  • atbildība
  • Privātums
  • Labums
  • Brīvība un autonomija
  • Uzticēties
  • Ilgtspējība
  • cieņa
  • Solidaritāte

Kā jūs varētu tieši nojaust, mēģināt noteikt šo principu pamatā esošo specifiku var būt ārkārtīgi grūti. Vēl jo vairāk, centieni pārvērst šos plašos principus par kaut ko pilnīgi taustāmu un pietiekami detalizētu, lai tos izmantotu AI sistēmu izstrādē, arī ir grūts rieksts. Kopumā ir viegli pamātīt ar roku par to, kas ir AI ētikas priekšraksti un kā tie vispārīgi jāievēro, savukārt AI kodēšanas situācija ir daudz sarežģītāka, ja tai ir jābūt īstai gumijai, kas saskaras ar ceļu.

AI ētikas principi ir jāizmanto AI izstrādātājiem, kā arī tiem, kas pārvalda AI izstrādes centienus, un pat tiem, kas galu galā veic AI sistēmu uzturēšanu un uzturēšanu. Visas ieinteresētās puses visā AI izstrādes un lietošanas dzīves ciklā tiek uzskatītas par ētiskā AI noteikto normu ievērošanu. Tas ir svarīgs akcents, jo parasti tiek pieņemts, ka “tikai kodētāji” vai tie, kas programmē AI, ir pakļauti AI ētikas jēdzieniem. Kā minēts iepriekš, ir nepieciešams ciemats, lai izstrādātu un ieviestu AI, un tam visam ciemam ir jābūt pieredzējušam un jāievēro AI ētikas priekšraksti.

Pārliecināsimies arī par mūsdienu mākslīgā intelekta būtību.

Mūsdienās nav AI, kas būtu jūtīgs. Mums šī nav. Mēs nezinām, vai jutīgais AI būs iespējams. Neviens nevar precīzi paredzēt, vai mēs sasniegsim jutīgu AI, kā arī to, vai jutīgs AI kaut kā brīnumaini spontāni radīsies skaitļošanas kognitīvās supernovas veidā (parasti saukta par singularitāti, skatiet manu pārklājumu vietnē saite šeit).

AI veids, uz kuru es koncentrējos, sastāv no nejūtošā AI, kas mums ir šodien. Ja mēs gribējām mežonīgi spekulēt par jūtīgs AI, šī diskusija varētu virzīties radikāli citā virzienā. Domājams AI būtu cilvēka kvalitātes. Jums jāņem vērā, ka jutīgais AI ir cilvēka kognitīvs ekvivalents. Vēl jo vairāk, tā kā daži uzskata, ka mums varētu būt superinteliģents AI, iespējams, ka šāds AI varētu būt gudrāks par cilvēkiem (manu superinteliģentā AI kā iespēju izpēti sk. pārklājums šeit).

Turēsim lietas piezemētākas un apsvērsim mūsdienu skaitļošanas nejūtīgo AI.

Saprotiet, ka mūsdienu mākslīgais intelekts nespēj “domāt” tādā pašā veidā kā cilvēka domāšana. Mijiedarbojoties ar Alexa vai Siri, sarunu spējas var šķist līdzīgas cilvēka spējām, taču patiesībā tās ir skaitļošanas iespējas un tām trūkst cilvēka izziņas. Jaunākajā AI laikmetā ir plaši izmantota mašīnmācīšanās (ML) un dziļā mācīšanās (DL), kas izmanto skaitļošanas modeļu saskaņošanu. Tas ir novedis pie AI sistēmām, kas izskatās pēc cilvēkiem līdzīgas tieksmes. Tikmēr mūsdienās nav neviena mākslīgā intelekta, kam būtu veselais saprāts un arī cilvēka spēcīgas domāšanas izziņas brīnums.

ML/DL ir skaitļošanas modeļu saskaņošanas veids. Parastā pieeja ir tāda, ka jūs apkopojat datus par lēmumu pieņemšanas uzdevumu. Jūs ievadāt datus ML/DL datoru modeļos. Šie modeļi cenšas atrast matemātiskos modeļus. Pēc šādu modeļu atrašanas, ja tādi tiek atrasti, AI sistēma izmantos šos modeļus, sastopoties ar jauniem datiem. Uzrādot jaunus datus, pašreizējā lēmuma pieņemšanai tiek piemēroti modeļi, kuru pamatā ir “vecie” vai vēsturiskie dati.

Es domāju, ka jūs varat uzminēt, kurp tas virzās. Ja cilvēki, kas ir pieņēmuši pieņemtus lēmumus, ir iekļāvuši nevēlamus aizspriedumus, pastāv iespēja, ka dati to atspoguļo smalki, bet nozīmīgi. Mašīnmācīšanās vai dziļās mācīšanās skaitļošanas modeļu saskaņošana vienkārši mēģinās attiecīgi matemātiski atdarināt datus. AI radītajā modelēšanā per se nešķiet veselais saprāts vai citi jūtīgi aspekti.

Turklāt AI izstrādātāji, iespējams, arī neapzinās, kas notiek. Arkāniskā matemātika ML/DL var apgrūtināt tagad slēpto aizspriedumu novēršanu. Jūs pamatoti cerat un gaidāt, ka AI izstrādātāji pārbaudīs potenciāli apraktos aizspriedumus, lai gan tas ir sarežģītāk, nekā varētu šķist. Pastāv liela iespēja, ka pat ar salīdzinoši plašu testēšanu ML/DL modeļu atbilstības modeļos joprojām būs novirzes.

Jūs varētu mazliet izmantot slaveno vai bēdīgi slaveno sakāmvārdu par atkritumu savākšanu. Lieta ir tāda, ka tas vairāk līdzinās aizspriedumiem, kas mānīgi tiek iepludināti, AI iegremdējot aizspriedumus. AI lēmumu pieņemšanas algoritms (ADM) aksiomātiski kļūst piekrauts ar nevienlīdzību.

Nav labi.

Atgriezīsimies pie Sarkanā karoga AI likumiem.

Pamatkoncepcija ir tāda, ka cilvēki varēs pacelt sarkano karogu ikreiz, kad viņi uzskata, ka AI sistēma darbojas nepamatoti neobjektīvi vai diskriminējoši. Jūs pats par sevi nepaceltu fizisku karogu, tā vietā vienkārši izmantotu kādus elektroniskus līdzekļus, lai darītu zināmas savas bažas. Shēmas vai pieejas sarkanā karoga daļa vairāk ir metafora nekā fiziska iemiesojums.

Izliecieties, ka piesakāties mājokļa kredītam. Lai pieteiktos aizdevumam, jūs izvēlaties izmantot tiešsaistes bankas pakalpojumu. Pēc dažu personas datu ievadīšanas jūs uz brīdi gaidāt AI sistēmu, kas tiek izmantota, lai izlemtu, vai esat aizdevuma vērts. AI paziņo, ka jums ir atteikts aizdevums. Pieprasot paskaidrojumu par to, kāpēc jūs tikāt noraidīts, teksta stāstījums, šķiet, liek domāt, ka AI lēmumu pieņemšanas algoritmā izmantoja nepamatotus neobjektīvus faktorus.

Laiks pacelt sarkano karogu par AI.

Kur īsti plīvos šis sarkanais karogs?

Tas ir miljonu dolāru jautājums.

Viens no viedokļiem ir tāds, ka mums vajadzētu izveidot valsts mēroga datubāzi, kas ļautu cilvēkiem atzīmēt savus ar AI saistītos sarkanos karogus. Daži saka, ka tas būtu jāregulē federālajai valdībai. Federālās aģentūras būtu atbildīgas par sarkano karogu pārbaudi un sniegšanu plašai sabiedrībai, lai noskaidrotu to patiesumu, kā arī tiktu galā ar, iespējams, “slikto AI”, kas izraisīja sarkano karogu ziņojumu rezultātus.

Šķiet, ka Kongress noteiks valsts sarkanā karoga AI likumu. Likumā būtu precizēts, kas ir ar AI saistīts sarkanais karogs. Likumā būtu aprakstīts, kā tiek pacelti šie mākslīgā intelekta sarkanie karodziņi. Un tā tālāk. Var būt arī gadījums, ka atsevišķas valstis varētu arī izvēlēties izstrādāt savus Sarkanā karoga AI likumus. Varbūt viņi to dara valsts iniciatīvas vietā vai arī viņi to dara, lai pastiprinātu informāciju, kas ir īpaši pievilcīga viņu konkrētajam stāvoklim.

Federālās vai jebkuras valdības atbalstītas Sarkanā karoga AI programmas kritiķi iebilstu, ka privātā nozare to var darīt, un mums nav nepieciešams, lai priekšplānā izvirzās Big Brother. Nozare varētu izveidot tiešsaistes repozitoriju, kurā cilvēki var reģistrēt sarkanos karogus par AI sistēmām. Nozares pašregulējoša darbība šos jautājumus pietiekami risinātu.

Apšaubāma šķietamā nozares pieeja ir tāda, ka tā, šķiet, smaržo pēc savstarpējas attieksmes. Vai uzņēmumi būtu gatavi ievērot kādu privāti pārvaldītu Red Flag AI datubāzi? Daudzi uzņēmumi, iespējams, ignorētu marķētos sarkanos karogus par savu AI. Nebūtu asi zobi, lai uzņēmumi tiktu galā ar ievadītajiem sarkanajiem karogiem.

Hei, privātā sektora pieejas piekritēji izklausās, tas būtu līdzīgs valsts Yelp līdzīgam pakalpojumam. Patērētāji varētu aplūkot sarkanos karogus un paši izlemt, vai viņi vēlas veikt darījumus ar uzņēmumiem, kas ir savākuši daudz uz AI orientētu sarkano karogu. Bankai, kas saņem tonnas sarkano karogu par savu AI, būtu jāpievērš uzmanība un jāpārveido savas mākslīgā intelekta sistēmas, tāpēc loģika ir tāda, pretējā gadījumā patērētāji izvairītos no uzņēmuma kā no mēra.

Neatkarīgi no tā, vai visu šo pieeju īsteno valdība vai nozare, ir tikai aisberga redzamā daļa sarežģītos jautājumos, ar kuriem saskaras ierosinātais Sarkanā karoga AI likumu postulāts.

Iesaistieties uzņēmuma vietā, kas ir izstrādājis vai izmanto AI. Varētu būt, ka patērētāji paceltu sarkanos karogus, lai gan tam nebija pamatota pamata. Ja cilvēki varētu brīvi izlikt sarkano karogu par mākslīgo intelektu, viņiem varētu rasties kārdinājums to darīt pēc iegribas vai varbūt, lai atriebtos pret uzņēmumu, kas citādi nedarīja neko sliktu pret patērētāju.

Īsāk sakot, par AI varētu būt daudz viltus pozitīvu sarkano karogu.

Vēl viens apsvērums ir iegūto sarkano karogu lielais izmērs vai apjoms. Varētu viegli pacelt miljoniem un miljoniem sarkano karogu. Kurš sekos visiem šiem sarkanajiem karogiem? Kādas būtu izmaksas, lai to izdarītu? Kurš maksās par sarkanā karoga turpmākajiem pasākumiem? utt.

Ja jūs teiktu, ka ikvienam, kurš reģistrē vai ziņo par sarkano karogu par mākslīgo intelektu, ir jāmaksā nodeva, jūs esat nonācis neskaidrā un mānīgā valstībā. Bažas būtu par to, ka sarkanos karogus varētu atļauties pacelt tikai turīgie. Tas savukārt nozīmē, ka nabadzīgie nevarētu līdzvērtīgi piedalīties sarkanā karoga aktivitātēs un būtībā viņiem nebūtu vietas, kur brīdināt par nelabvēlīgu AI.

Pagaidām tikai vēl viens papildu pavērsiens, proti, šķiet, ka šāda veida sarkanā karoga likumi vai vadlīnijas par AI ir pēc fakta, nevis kalpo kā brīdinājums iepriekš.

Atgriežoties pie Sarkanā karoga satiksmes likumiem, sarkanā karoga izmantošanas uzsvars tika likts uz to, lai novērstu nelaimes gadījumu. Sarkanajam karoga vicinātājam vajadzēja būt krietni priekšā gaidāmajai automašīnai. Atrodoties priekšā transportlīdzeklim, mājlopi tiktu brīdināti, un tie, kas apsargāja lopus, zinātu, ka viņiem ir jāveic piesardzības pasākumi, jo drīzumā ieradīsies satraucošais avots.

Ja cilvēki spēj tikai pacelt sarkano karogu par mākslīgo intelektu, kas šķietami jau ir kaitējis vai pārkāpis viņu tiesības, sakāmvārdu zirgs jau ir ārā no kūts. Šķiet, ka tas viss, ko tas varētu paveikt, ir tas, ka, cerams, citi cilvēki, kas nāk kopā, tagad zinātu, ka ir piesardzīgi pret šo AI sistēmu. Tikmēr it kā pāridarītā persona jau ir cietusi.

Daži ierosina, ka mēs varētu ļaut cilvēkiem pacelt sarkanos karogus par mākslīgo intelektu aizdomīgs var būt neobjektīvi, pat ja viņi nav izmantojuši AI un tos nav tieši ietekmējis AI. Tādējādi sarkanais karogs tiek vicināts, pirms tiek nodarīts kaitējums.

Ak, jūs patiešām padarīsit sarkanos karogus, kas cīnās ar AI, par pilnīgi nevadāmu un haotisku lietu. Ja kāds kāda iemesla dēļ var pacelt sarkano karogu par AI sistēmu, neskatoties uz to, ka ar šo AI nav darījis neko, jūs tiksiet appludināts ar sarkanajiem karogiem. Vēl ļaunāk, jūs nevarēsit atšķirt kviešus no pelavām. Visa sarkanā karoga pieeja sabruks zem sava svara, samazinot idejas labestību, ļaujot flotsam un riffraff nogremdēt visu kuģi.

Galvu reibinoši un mulsinoši.

Šajā svarīgās diskusijas posmā es varu derēt, ka jūs vēlaties dažus ilustratīvus piemērus, kas varētu parādīt šo tēmu. Ir īpašs un noteikti populārs piemēru kopums, kas man ir tuvs. Redziet, manā kā MI ekspertam, tostarp ētiskajām un juridiskajām sekām, man bieži tiek lūgts identificēt reālistiskus piemērus, kas parāda AI ētikas dilemmas, lai varētu vieglāk uztvert tēmas nedaudz teorētisko raksturu. Viena no visspilgtākajām jomām, kas spilgti atspoguļo šo ētisko AI problēmu, ir uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās. Tas kalpos kā ērts lietošanas gadījums vai paraugs plašai diskusijai par šo tēmu.

Šeit ir viens ievērības cienīgs jautājums, par kuru ir vērts padomāt: Vai uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās kaut ko izgaismo par sarkanā karoga AI likumiem, un, ja tā, ko tas parāda?

Ļaujiet man kādu brīdi izpakot jautājumu.

Pirmkārt, ņemiet vērā, ka īstā pašbraucošā automašīnā nav cilvēka vadītāja. Ņemiet vērā, ka patiesas pašbraucošas automašīnas tiek vadītas, izmantojot AI braukšanas sistēmu. Nav nepieciešams cilvēks pie stūres, kā arī nav paredzēts, ka cilvēks varētu vadīt transportlīdzekli. Manu plašo un pastāvīgo informāciju par autonomajiem transportlīdzekļiem (AV) un īpaši pašbraucošām automašīnām sk. saite šeit.

Es vēlētos vēl vairāk precizēt, kas ir domāts, runājot par patiesām pašbraucošām automašīnām.

Izpratne par pašbraucošo automašīnu līmeņiem

Paskaidrosim, ka patiesas pašbraucošas automašīnas ir tās, kurās mākslīgais intelekts vada automašīnu pilnībā un braukšanas uzdevuma laikā netiek sniegta cilvēka palīdzība.

Šie bezvadītāja transportlīdzekļi tiek uzskatīti par 4. un 5. līmeni (skatiet manu skaidrojumu vietnē šī saite šeit), savukārt automašīna, kuras vadītājam ir jādalās braukšanas piepūlē, parasti tiek uzskatīta par 2. vai 3. līmeni. Automašīnas, kas kopīgi veic vadīšanas uzdevumu, ir aprakstītas kā daļēji autonomas, un parasti tajās ir dažādas automatizēti papildinājumi, kas tiek saukti par ADAS (Advanced Driver-Assistance Systems).

Pagaidām vēl nav īstas pašbraucošas automašīnas 5. līmenī, un mēs vēl pat nezinām, vai to būs iespējams sasniegt, kā arī to, cik ilgs laiks būs nepieciešams, lai līdz tam nokļūtu.

Tikmēr 4. līmeņa centieni pakāpeniski mēģina iegūt zināmu saķeri, veicot ļoti šauru un selektīvu koplietošanas ceļu izmēģinājumus, lai gan pastāv strīdi par to, vai šī pārbaude ir jāatļauj per se (mēs visi esam dzīvības vai nāves jūrascūciņas eksperimentā kas notiek uz mūsu lielceļiem un blakusceļiem, daži apgalvo, skatiet manu pārklājumu vietnē šī saite šeit).

Tā kā pusautomātiskajām automašīnām ir nepieciešams autovadītājs, kas izmanto cilvēku, šāda veida automašīnas pieņemšana ievērojami neatšķirsies no parastā transporta līdzekļa vadīšanas, tāpēc per se nav daudz jaunu, lai par tām runātu par šo tēmu (lai gan, kā redzēsit pēc brīža nākamie punkti parasti ir piemērojami).

Pusautonomām automašīnām ir svarīgi, lai sabiedrība tiktu brīdināta par satraucošu aspektu, kas rodas pēdējā laikā, proti, ka, neskatoties uz tiem autovadītājiem, kas turpina publicēt video, kā viņi aizmiguši pie 2. vai 3. līmeņa automašīnas stūres , mums visiem jāizvairās no maldināšanas, uzskatot, ka vadītājs, vadot daļēji autonomu automašīnu, var novērst uzmanību no braukšanas uzdevuma.

Jūs esat atbildīgā persona par transportlīdzekļa vadīšanas darbībām neatkarīgi no tā, cik daudz automatizācijas var iemest 2. vai 3. līmenī.

Pašbraucošas automašīnas un sarkanā karoga AI likumi

4. un 5. līmeņa īstiem pašpiedziņas transportlīdzekļiem braukšanas uzdevumā nebūs iesaistīts autovadītājs.

Visi pasažieri būs pasažieri.

AI veic braukšanu.

Viens aspekts, kas nekavējoties jāapspriež, ietver faktu, ka AI, kas iesaistīts mūsdienu AI braukšanas sistēmās, nav jūtīgs. Citiem vārdiem sakot, AI kopumā ir datorizētas programmēšanas un algoritmu kolektīvs, un, protams, tas nespēj spriest tāpat kā cilvēki.

Kāpēc šis papildu uzsvars tiek likts uz to, ka AI nav jūtīgs?

Tā kā es gribu pasvītrot, ka, apspriežot AI braukšanas sistēmas lomu, es nepiešķiru AI cilvēka īpašības. Lūdzu, ņemiet vērā, ka mūsdienās pastāv un ir bīstama tendence antropomorfizēt AI. Būtībā cilvēki piešķir mūsdienu cilvēka intelektu mūsdienu AI, neskatoties uz nenoliedzamu un neapstrīdamu faktu, ka šāda AI vēl nav.

Izmantojot šo precizējumu, jūs varat iedomāties, ka AI braukšanas sistēma dabiski kaut kā “nezinās” par braukšanas aspektiem. Braukšana un viss, kas ar to saistīts, būs jāprogrammē kā daļa no pašpiedziņas automašīnas aparatūras un programmatūras.

Iegremdēsimies neskaitāmos aspektos, kas nāk par šo tēmu.

Pirmkārt, ir svarīgi saprast, ka ne visas AI pašbraucošās automašīnas ir vienādas. Katrs autoražotājs un pašpiedziņas tehnoloģiju uzņēmums izmanto savu pieeju, lai izstrādātu pašbraucošas automašīnas. Tādējādi ir grūti sniegt visaptverošus paziņojumus par to, ko AI vadīšanas sistēmas darīs vai nedarīs.

Turklāt ikreiz, kad tiek apgalvots, ka AI vadīšanas sistēma nedara kādu konkrētu lietu, to vēlāk var apsteigt izstrādātāji, kuri faktiski programmē datoru, lai to izdarītu. Soli pa solim AI braukšanas sistēmas tiek pakāpeniski uzlabotas un paplašinātas. Esošais ierobežojums šodien, iespējams, vairs nepastāvēs turpmākajā sistēmas iterācijā vai versijā.

Es ceru, ka tas sniedz pietiekamu atrunu, kas ir pamatā tam, ko es gatavojos stāstīt.

Ieskicēsim scenāriju, kas varētu izmantot sarkanā karoga AI likumu.

Jūs iekāpjat uz mākslīgā intelekta balstītā pašbraucošā automašīnā un vēlaties, lai autonomais transportlīdzeklis jūs aizvestu uz vietējo pārtikas preču veikalu. Salīdzinoši īsā brauciena laikā AI izvēlas maršrutu, kas jums šķiet nedaudz nepareizs. Tā vietā, lai dotos vistiešākajā virzienā, mākslīgais intelekts virzās uz nomaļām ielām, kā rezultātā braukšanas laiks ir ilgāks, nekā tas parasti varētu būt.

Kas notiek?

Pieņemot, ka jūs maksājat par pašbraucošas automašīnas izmantošanu, jums varētu būt aizdomas, ka mākslīgais intelekts ir ieprogrammēts braukt garāku maršrutu, lai mēģinātu palielināt brauciena maksu vai izmaksas. Ikviens, kurš kādreiz ir izmantojis parasto cilvēka vadītu kabīni, zina, kā var tikt pie viltības, lai uz skaitītāja iegūtu vairāk mīklas. Protams, ja cilvēkiem ir GPS viedtālruņos, braucot kabīnē vai līdzvērtīgā vietā, jūs varat viegli notvert cilvēku vadītāju, kurš, šķiet, viltīgi brauc nevajadzīgi garos maršrutos.

Izrādās, ka jums ir citas bažas par maršruta izvēli, kas jūs patiešām grauž.

Pieņemsim, ka maršruts tika veikts, lai rasu šķautņu dēļ izvairītos no noteiktām pilsētas daļām. Ir dokumentēti gadījumi, kad cilvēku vadītāji ir pieķerti, veicot šādas izvēles, skatiet manu diskusiju vietnē saite šeit. Iespējams, AI tam ir nelabvēlīgi ieprogrammēts.

Jūs nolemjat pacelt sarkano karogu.

Pieņemsim, ka diskusijas labad ir pieņemts Sarkanā karoga AI likums, kas attiecas uz jūsu jurisdikciju. Tie var būt vietējie tiesību akti, valsts tiesību akti, federālie vai starptautiskie tiesību akti. Lai iegūtu analīzi, ko es izstrādāju kopā ar Hārvardas autonomās transportlīdzekļu politikas iniciatīvu (AVPI) par vietējās vadības pieaugošo nozīmi, kad kopienas pieņem pašbraucošu automašīnu izmantošanu, sk. saite šeit.

Tātad jūs tiešsaistē atverat Red Flag AI datu bāzi. Negadījumu datubāzē jūs ievadāt informāciju par pašbraucošās automašīnas braucienu. Tas ietver braukšanas pārgājiena datumu un laiku, kā arī pašbraucošās automašīnas zīmolu un modeli. Pēc tam jūs ievadāt navigācijas maršrutu, kas šķita aizdomīgs, un norādiet vai varbūt tieši apgalvojat, ka mākslīgais intelekts tika izstrādāts ar tendenciozu vai diskriminējošu nolūku un iespējām.

Mums būtu jādomā par citām Sarkanā karoga AI likuma detaļām par to, kas notiks tālāk šajā konkrētajā scenārijā. Teorētiski būtu paredzēts, ka kāds pārskatīs sarkano karogu. Viņi, domājams, centīsies panākt, lai autoražotājs vai pašpiedziņas tehnoloģiju uzņēmums izskaidro savu viedokli par reģistrēto sarkano karogu. Cik vēl ir reģistrēti šādi sarkanie karogi? Kādus rezultātus radīja šie sarkanie karogi?

Un tā turpinātos.

Secinājumi

Neprātīgi, mudina daži skeptiķi.

Mums nav vajadzīgi Sarkanā karoga AI likumi, tie stingri iedarbojas. Darot jebko tamlīdzīgu, AI gaita un attīstība pasliktinās darbu. Jebkuri šādi likumi būtu smagnēji. Jūs radītu problēmu, kas problēmu neatrisina. Ir arī citi slikti veidi, kā tikt galā ar AI. Lai tiktu galā ar neobjektīvu mākslīgo intelektu, akli nesatveriet aiz salmiem.

Pārslēdzot pārnesumus, mēs visi zinām, ka vēršu cīnītāji izmanto sarkanus apmetņus, lai acīmredzami piesaistītu dusmīgā vērša uzmanību. Lai gan sarkanā krāsa mums visvairāk asociējas ar šo praksi, jūs varētu būt pārsteigts, uzzinot, ka zinātnieki saka, ka buļļi neuztver muleta sarkano krāsu (tie ir krāsu akli pret sarkano krāsu). Populārā izrāde Mythbusters veica diezgan izklaidējošu šīs lietas pārbaudi. Apmetņa kustība ir galvenais elements, nevis izvēlētā krāsa.

Tiem, kas noraida vajadzību pēc sarkanā karoga AI likumiem, pretprasība ir tāda, ka mums ir nepieciešams kaut kas dramatisks un nepārprotami viļņojošs, lai nodrošinātu, ka AI izstrādātāji un uzņēmumi, kas izvieto AI, izvairīsies no neobjektīva vai slikta AI. Ja ne sarkanais karogs, iespējams, ka plīvojošs apmetnis vai būtībā jebkāda veida brīdinājuma pieeja varētu būt pienācīgas uzmanības sfērā.

Mēs noteikti zinām, ka slikts AI pastāv un ka mūsu virzienā virzīsies daudz vairāk sliktu AI. Ir ļoti svarīgi atrast veidus, kā pasargāt sevi no nelabvēlīgas AI. Tāpat vienlīdz svarīgi ir uzstādīt aizsargmargas, lai mēģinātu novērst slikta AI nokļūšanu pasaulē.

Ernests Hemingvejs teica, ka neviens nekad nenodzīvo līdz galam, izņemot vēršu cīnītājus. Mums ir jāpārliecinās, ka cilvēki var nodzīvot visu savu dzīvi, neskatoties uz to, kāds AI ļaunums vai neprāts tiek izplatīts pār mums.

Avots: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-sauced-red-flag-ai-laws-for-calling-out- biased-algoritms-in-autonomous-ai-systems/