AI ētika un mākslīgā intelekta tiesību akti, kas izsver galvenos veidus, kā īstenot nesen izdoto AI tiesību aktu, tostarp un pārsteidzoši, tieši izmantojot AI

Nav šaubu, ka mūsu ikdienas dzīvē ir nepieciešami rasējumi.

Ja jūs gatavojaties būvēt savu sen iecerēto sapņu māju, jums būtu prātīgi vispirms izveidot izmantojamu projektu.

Projektā taustāmā un dokumentētā veidā tiek parādīts, kāds tālredzīgs perspektīvas skatījums varētu būt ieslodzīts jūsu spārnos. Tie, kas tiks aicināti uzcelt jūsu loloto sētu, varēs atsaukties uz projektu un norādīt detalizētu informāciju par to, kā paveikt darbu. Zīmējumi ir ērti. Projekta trūkums noteikti ir problemātisks jebkura veida sarežģīta darba vai projekta risināšanā.

Pārcelsim šo nedaudz sentimentālo, bet patieso veltījumu projektiem uz mākslīgā intelekta (AI) sfēru.

Tie no jums, kas ir būtiski saistīti ar AI, varētu neskaidri apzināties, ka svarīga ir uz politiku orientēta projekts nesen tika izlaists ASV, kas uzskatāmi attiecas uz AI nākotni. Neoficiāli pazīstams kā AI tiesību akts, izsludinātās baltās grāmatas oficiālais nosaukums ir “AI Bill of Rights: Making Automated Systems Work for the American People” un ir viegli pieejams tiešsaistē.

Šis dokuments ir Zinātnes un tehnoloģiju politikas biroja (OSTP) gadu ilgas pūles un pārdomāta pētījuma rezultāts. OSTP ir federāla vienība, kas tika izveidota 1970. gadu vidū un kalpo, lai konsultētu Amerikas prezidentu un ASV izpildbiroju par dažādiem valsts nozīmes tehnoloģiskiem, zinātniskiem un inženiertehniskiem aspektiem. Šajā ziņā jūs varat teikt, ka šis AI tiesību akts ir dokuments, ko apstiprinājis un apstiprinājis esošais ASV Baltais nams.

AI tiesību aktā ir attēlots cilvēktiesības kas cilvēcei vajadzētu būt attiecībā uz AI ienākšanu mūsu ikdienas dzīvē. Es uzsveru šo svarīgo aspektu, jo daži cilvēki sākumā bija neizpratnē, ka varbūt tas ir sava veida atzīšana, ka mākslīgais intelekts ir juridiskas personas statuss, un ka šī ir tiesību litānija jutīgiem AI un humanoīdiem robotiem. Nē, mēs vēl neesam tur. Kā jau pēc mirkļa redzēsit, mēs ne tuvu neatrodamies saprātīgam AI, neskatoties uz reklāmkarogu virsrakstiem, kas, šķiet, liecina par pretējo.

Labi, vai mums ir vajadzīgs projekts, kas izskaidro cilvēktiesības AI laikmetā?

Jā, mēs to noteikti darām.

Jums gandrīz vajadzētu būt ieslēgtam alā un bez piekļuves internetam, lai nezinātu, ka AI jau tagad un arvien vairāk pārkāpj mūsu tiesības. Nesenais AI laikmets sākotnēji tika uzskatīts par tādu AI uz labu, kas nozīmē, ka mēs varētu izmantot AI cilvēces uzlabošanai. Uz papēžiem AI uz labu nāca atziņa, ka arī mēs esam iegrimuši AI For Bad. Tas ietver AI, kas ir izdomāts vai pašpārveidots, lai būtu diskriminējošs un kas veic skaitļošanas izvēles, radot nepamatotas novirzes. Dažreiz mākslīgais intelekts tiek veidots šādā veidā, savukārt citos gadījumos tas novirzās uz šo nevēlamo teritoriju.

Manu pastāvīgo un plašo AI likumu, AI ētikas un citu galveno AI tehnoloģisko un sabiedrisko tendenču analīzi skatiet sk. saite šeit un saite šeit, tikai nosaukt dažus.

AI tiesību akta izpakošana

Esmu iepriekš apspriedis AI tiesību aktu un šeit sniegšu īsu kopsavilkumu.

Ja vēlaties uzzināt manus padziļinātos plusus un mīnusus nesen izdotajam AI tiesību aktam, esmu detalizēti aprakstījis savu analīzi publikācijā vietnē juristsSkatīt saite šeit. jurists ir ievērojama juridisko ziņu un komentāru tiešsaistes vietne, kas plaši pazīstama kā godalgots juridisko ziņu dienests, ko nodrošina globāla juridisko studentu reportieru, redaktoru, komentētāju, korespondentu un satura izstrādātāju komanda, un kuras galvenā mītne atrodas Pitsburgas Universitātes skolā. Likums Pitsburgā, kur tas sākās pirms vairāk nekā 25 gadiem. Sveiciens izcilajai un strādīgajai komandai plkst jurists.

AI tiesību aktā ir piecas galvenās kategorijas:

  • Drošas un efektīvas sistēmas
  • Algoritmiskā diskriminācijas aizsardzība
  • Datu privātums
  • Paziņojums un skaidrojums
  • Cilvēku alternatīvas, apsvērumi un atkāpšanās

Ņemiet vērā, ka es tās nenorādīju no viena līdz piecām, jo ​​tas var nozīmēt, ka tās atrodas noteiktā secībā vai ka viena no tiesībām šķietami ir svarīgāka par otru. Mēs pieņemsim, ka tie ir katrs no saviem nopelniem. Viņi visi savā ziņā ir vienlīdz vērtīgi.

Kā īsu norādi par to, no kā katrs sastāv, šeit ir izvilkums no oficiālās baltās grāmatas:

  • Drošas un efektīvas sistēmas: “Jums jābūt aizsargātam no nedrošām vai neefektīvām sistēmām. Automatizētās sistēmas jāizstrādā, konsultējoties ar dažādām kopienām, ieinteresētajām personām un jomas ekspertiem, lai noteiktu problēmas, riskus un sistēmas iespējamo ietekmi.
  • Algoritmiskā diskriminācijas aizsardzība: “Jūs nedrīkstat saskarties ar diskrimināciju algoritmu dēļ, un sistēmas ir jāizmanto un jāizstrādā vienlīdzīgi. Algoritmiska diskriminācija notiek, ja automatizētas sistēmas veicina nepamatoti atšķirīgu attieksmi vai nelabvēlīgu ietekmi uz cilvēkiem, pamatojoties uz viņu rasi, ādas krāsu, etnisko piederību, dzimumu (tostarp grūtniecību, dzemdībām un ar to saistītos veselības stāvokļus, dzimuma identitāti, starpdzimuma statusu un seksuālo orientāciju), reliģiju, vecumu. , nacionālā izcelsme, invaliditāte, veterāna statuss, ģenētiskā informācija vai jebkura cita klasifikācija, ko aizsargā likums.
  • Datu konfidencialitāte: “Jums ir jābūt aizsargātam no ļaunprātīgas datu izmantošanas, izmantojot iebūvēto aizsardzību, un jums ir jābūt aģentūrām par to, kā tiek izmantoti dati par jums. Jums ir jābūt aizsargātam pret privātuma pārkāpumiem, izvēloties dizainu, kas nodrošina, ka šāda aizsardzība tiek iekļauta pēc noklusējuma, tostarp nodrošinot, ka datu vākšana atbilst saprātīgām cerībām un tiek vākti tikai tie dati, kas noteikti ir nepieciešami konkrētajam kontekstam.
  • Paziņojums un skaidrojums: “Jums jāzina, ka tiek izmantota automatizēta sistēma, un jāsaprot, kā un kāpēc tā veicina rezultātus, kas jūs ietekmē. Automatizēto sistēmu projektētājiem, izstrādātājiem un ieviestājiem ir jānodrošina vispārīgi pieejama dokumentācija vienkāršā valodā, tostarp skaidri apraksti par vispārējo sistēmas darbību un automatizācijas lomu, paziņojums, ka šādas sistēmas tiek izmantotas, par sistēmu atbildīgā persona vai organizācija, kā arī paskaidrojumi par sistēmu. skaidri, savlaicīgi un pieejami rezultāti.
  • Cilvēka alternatīvas, apsvērumi un atkāpšanās: “Jums vajadzētu būt iespējai attiecīgā gadījumā atteikties un piekļūt personai, kas var ātri izskatīt un novērst problēmas, ar kurām saskaraties. Vajadzības gadījumā jums vajadzētu būt iespējai atteikties no automatizētām sistēmām par labu cilvēku alternatīvai.

Kopumā šie ir cilvēces tiesību aspekti, kas AI ētikas un mākslīgā intelekta likuma kontekstā ir tikuši apzināti jau labu laiku. Skatiet manus rakstus, piemēram, saite šeit. Baltā papīrs šķietami maģiski neizrauj trušu no cepures attiecībā uz kādu jaunatklātu vai izraktu tiesību, kas līdz šim nav noskaidrots mākslīgā intelekta laikmeta kontekstā.

Ir labi.

Varētu apgalvot, ka to apkopošana vienā glīti iesaiņotā un formalizētā kolekcijā sniedz būtisku pakalpojumu. Turklāt, tiekot svaidīts kā atzīts AI tiesību akts, tas visu lietu atklāti un prasmīgi ieliek publiskās sfēras apziņā. Tas apvieno esošo atšķirīgu diskusiju pārpilnību atsevišķā kopumā, ko tagad var izrunāt un nodot visu veidu ieinteresētajām personām.

Ļaujiet man piedāvāt šo labvēlīgo reakciju sarakstu uz paziņoto AI tiesību aktu:

  • Nodrošina būtisku pamatakmens principu apkopojumu
  • Kalpo kā projekts vai pamats, uz kura balstīties
  • Darbojas kā vokāls aicinājums uz darbību
  • Spurs interesi un demonstrē, ka tie ir nopietni apsvērumi
  • Apvieno daudzas dažādas diskusijas
  • Uzmundrina un veicina ētiskā AI ieviešanas centienus
  • Neapšaubāmi tiks izmantots AI likumu izveidē
  • cits

Mums ir jāņem vērā arī mazāk labvēlīgās reakcijas, ņemot vērā, ka ir jāpaveic daudz vairāk darba un ka tas ir tikai sākums garam ceļam uz grūto AI pārvaldības ceļu.

Tādējādi nedaudz skarba vai, teiksim, konstruktīva kritika par AI tiesību aktu ietver:

  • Nav juridiski izpildāms un pilnībā nesaistošs
  • Tikai konsultatīvi, un tas netiek uzskatīts par valdības politiku
  • Mazāk visaptverošs salīdzinājumā ar citiem publicētajiem darbiem
  • Galvenokārt sastāv no plašiem jēdzieniem, un tajā trūkst detalizētas ieviešanas
  • Būs grūti pārvērsties reālos dzīvotspējīgos praktiskos likumos
  • Šķietami klusē par draudošo jautājumu par iespējamu mākslīgā intelekta aizliegšanu dažos kontekstos
  • Nedaudz atzīst AI izmantošanas priekšrocības, kas ir labi izstrādāta
  • cits

Iespējams, visievērojamākie skarbākie komentāri ir vērsti uz faktu, ka šis AI tiesību akts nav juridiski izpildāms un tāpēc tam nav nozīmes, kad runa ir par skaidru vārtu stabu izveidošanu. Daži ir teikuši, ka, lai gan baltais papīrs ir noderīgs un uzmundrinošs, tam noteikti trūkst zobu. Viņi apšauba, kas var rasties no it kā izsmalcinātu priekšrakstu kopuma ar dobiem zobiem.

Pēc brīža pievērsīšos šīm kodīgajām piezīmēm.

Tikmēr baltajā grāmatā ir plaši norādīti ierobežojumi tam, ko ietver šis AI tiesību akts:

  • “AI tiesību akta projekts nav saistošs un nav ASV valdības politika. Tas neaizstāj, nemaina vai nevirza neviena esoša statūta, regulas, politikas vai starptautiska instrumenta interpretāciju. Tie nav saistoši norādījumi sabiedrībai vai federālajām aģentūrām, un tāpēc tie neprasa atbilstību šeit aprakstītajiem principiem. Tas arī nav noteicošais, kāda būs ASV valdības nostāja jebkurās starptautiskās sarunās. Šo principu pieņemšana var neatbilst esošo statūtu, noteikumu, politikas vai starptautisko instrumentu prasībām vai to federālo aģentūru prasībām, kuras tos īsteno. Šie principi nav paredzēti, lai aizliegtu vai neierobežotu valsts aģentūras likumīgas darbības, tostarp tiesībaizsardzības, nacionālās drošības vai izlūkošanas darbības” (saskaņā ar balto grāmatu).

Tiem, kuri ir ātri norādījuši, ka mākslīgā intelekta tiesību akts ir juridiski nesaistošs, veiksim nelielu domu eksperimentu par šo smeldzīgo apgalvojumu. Pieņemsim, ka baltā grāmata tika izdota un tai bija viss likuma spēks. Es uzdrošinos apgalvot, ka rezultāts būs zināmā mērā kataklizmisks, vismaz tiktāl, ciktāl gan juridiski, gan sabiedriski reaģētu uz pasludināšanu.

Likumdevēji būtu apņēmības pilni, ka nav veikti normatīvie procesi un juridiskās procedūras, izstrādājot šādus likumus. Uzņēmumi būtu pamatoti saniknoti, ja tiktu pieņemti jauni likumi bez pietiekamas paziņošanas un izpratnes par to, kas tie ir. Izceltos visa veida sašutums un sašutums.

Nav labs veids, kā pievērsties cilvēces tiesību nostiprināšanai mākslīgā intelekta laikmetā.

Atgādiniet, ka es šo diskusiju biju iesācis iepriekš, pievēršot uzmanību rasējumu vērtībai un vitalitātei.

Iedomājieties, ka kāds izlaida rasējumu izstrādes posmu un nekavējoties sāka būvēt jūsu sapņu māju. Kā jūs domājat, kā izskatīsies māja? Šķiet godīgi, ka māja īpaši neatbildīs tam, ko jūs domājāt. Iegūtā viensēta varētu būt pilnīgs haoss.

Būtība ir tāda, ka mums patiešām ir vajadzīgi projekti, un tagad mums ir tādi, lai varētu virzīties uz priekšu, izdomājot saprātīgus AI likumus un dodot iespēju ētiskai AI ieviešanai.

Tāpēc es vēlētos pievērsties veidiem, kā šo AI Bill of Rights projektu var pārvērst it kā par māju. Kā mēs izmantosim projektu? Kādas ir piemērotas nākamās darbības? Vai ar šo projektu var pietikt, vai arī vajag vairāk gaļas uz kauliem?

Pirms ķeramies pie šīm smagajām lietām, vispirms vēlos pārliecināties, vai mēs visi esam vienā pusē attiecībā uz AI būtību un to, no kā sastāv šodienas statuss.

Mūsdienu AI rekorda uzstādīšana

Es vēlētos izteikt ārkārtīgi pārliecinošu paziņojumu.

Vai esat gatavi?

Mūsdienās nav AI, kas būtu jūtīgs.

Mums šī nav. Mēs nezinām, vai jutīgais AI būs iespējams. Neviens nevar precīzi paredzēt, vai mēs sasniegsim jutīgu AI, kā arī to, vai jutīgais AI kaut kā brīnumaini spontāni radīsies skaitļošanas kognitīvās supernovas veidā (parasti saukta par singularitāti, skatiet manu pārklājumu vietnē saite šeit).

AI veids, uz kuru es koncentrējos, sastāv no nejūtošā AI, kas mums ir šodien. Ja mēs vēlamies mežonīgi spekulēt par jutīgu AI, šī diskusija varētu virzīties radikāli citā virzienā. Domājams AI būtu cilvēka kvalitātes. Jums jāņem vērā, ka jutīgais AI ir cilvēka kognitīvs ekvivalents. Vēl jo vairāk, tā kā daži uzskata, ka mums varētu būt superinteliģents AI, iespējams, ka šāds AI varētu būt gudrāks par cilvēkiem (manu superinteliģentā AI kā iespēju izpēti sk. pārklājums šeit).

Es stingri ieteiktu mums paturēt lietas piezemētas un apsvērt mūsdienu skaitļošanas nejūtīgo AI.

Saprotiet, ka mūsdienu mākslīgais intelekts nespēj “domāt” tādā pašā veidā kā cilvēka domāšana. Mijiedarbojoties ar Alexa vai Siri, sarunu spējas var šķist līdzīgas cilvēka spējām, taču patiesībā tās ir skaitļošanas iespējas un tām trūkst cilvēka izziņas. Jaunākajā AI laikmetā ir plaši izmantota mašīnmācīšanās (ML) un dziļā mācīšanās (DL), kas izmanto skaitļošanas modeļu saskaņošanu. Tas ir novedis pie AI sistēmām, kas izskatās pēc cilvēkiem līdzīgas tieksmes. Tikmēr mūsdienās nav neviena mākslīgā intelekta, kam būtu veselais saprāts un arī cilvēka spēcīgas domāšanas izziņas brīnums.

Esiet ļoti uzmanīgs, antropomorfizējot mūsdienu AI.

ML/DL ir skaitļošanas modeļu saskaņošanas veids. Parastā pieeja ir tāda, ka jūs apkopojat datus par lēmumu pieņemšanas uzdevumu. Jūs ievadāt datus ML/DL datoru modeļos. Šie modeļi cenšas atrast matemātiskos modeļus. Pēc šādu modeļu atrašanas, ja tādi tiek atrasti, AI sistēma izmantos šos modeļus, sastopoties ar jauniem datiem. Uzrādot jaunus datus, pašreizējā lēmuma pieņemšanai tiek piemēroti modeļi, kuru pamatā ir “vecie” vai vēsturiskie dati.

Es domāju, ka jūs varat uzminēt, kurp tas virzās. Ja cilvēki, kas ir pieņēmuši pieņemtus lēmumus, ir iekļāvuši nevēlamus aizspriedumus, pastāv iespēja, ka dati to atspoguļo smalki, bet nozīmīgi. Mašīnmācīšanās vai dziļās mācīšanās skaitļošanas modeļu saskaņošana vienkārši mēģinās attiecīgi matemātiski atdarināt datus. AI radītajā modelēšanā per se nešķiet veselais saprāts vai citi jūtīgi aspekti.

Turklāt AI izstrādātāji, iespējams, arī neapzinās, kas notiek. Arkāniskā matemātika ML/DL var apgrūtināt tagad slēpto aizspriedumu novēršanu. Jūs pamatoti cerat un gaidāt, ka AI izstrādātāji pārbaudīs potenciāli apraktos aizspriedumus, lai gan tas ir sarežģītāk, nekā varētu šķist. Pastāv liela iespēja, ka pat ar salīdzinoši plašu testēšanu ML/DL modeļu atbilstības modeļos joprojām būs novirzes.

Jūs varētu mazliet izmantot slaveno vai bēdīgi slaveno sakāmvārdu par atkritumu savākšanu. Lieta ir tāda, ka tas vairāk līdzinās aizspriedumiem, kas mānīgi tiek iepludināti, AI iegremdējot aizspriedumus. AI lēmumu pieņemšanas algoritms (ADM) aksiomātiski kļūst piekrauts ar nevienlīdzību.

Nav labi.

Tam visam ir īpaši nozīmīgas AI ētikas sekas, un tas piedāvā ērtu logu gūtajām mācībām (pat pirms visu mācību stundu veikšanas), kad runa ir par AI tiesību aktu pieņemšanu.

Papildus AI ētikas priekšrakstu izmantošanai kopumā ir attiecīgs jautājums par to, vai mums vajadzētu pieņemt likumus, kas regulētu dažādus AI lietojumus. Federālā, štata un vietējā līmenī tiek pieņemti jauni likumi, kas attiecas uz AI izstrādes diapazonu un raksturu. Centieni izstrādāt un pieņemt šādus likumus notiek pakāpeniski. AI ētika kalpo vismaz kā pārdomāts pārtraukums, un gandrīz noteikti zināmā mērā tiks tieši iekļauts šajos jaunajos likumos.

Ņemiet vērā, ka daži nelokāmi apgalvo, ka mums nav vajadzīgi jauni likumi, kas aptver AI, un ka mūsu esošie likumi ir pietiekami. Viņi brīdina, ka, ja mēs ieviesīsim dažus no šiem AI likumiem, mēs nogalināsim zelta zosu, ierobežojot AI progresu, kas sniedz milzīgas sabiedrības priekšrocības.

Iepriekšējās slejās esmu apskatījis dažādus valsts un starptautiskos centienus izstrādāt un ieviest likumus, kas regulē AI, sk. saite šeit, piemēram. Esmu apskatījis arī dažādus mākslīgā intelekta ētikas principus un vadlīnijas, ko ir noteikušas un pieņēmušas dažādas valstis, tostarp, piemēram, Apvienoto Nāciju Organizācijas centienus, piemēram, UNESCO AI ētikas kopumu, ko pieņēma gandrīz 200 valstis, sk. saite šeit.

Šeit ir noderīgs ētisko AI kritēriju vai raksturlielumu saraksts attiecībā uz AI sistēmām, kuras esmu iepriekš rūpīgi izpētījis.

  • Caurspīdīgums
  • Taisnīgums un godīgums
  • Ne-ļaunprātība
  • atbildība
  • Privātums
  • Labums
  • Brīvība un autonomija
  • Uzticēties
  • Ilgtspējība
  • cieņa
  • Solidaritāte

Šie AI ētikas principi ir nopietni jāizmanto AI izstrādātājiem, kā arī tie, kas pārvalda AI izstrādes centienus, un pat tie, kas galu galā veic AI sistēmu apkopi un uzturēšanu.

Visas ieinteresētās puses visā AI izstrādes un lietošanas dzīves ciklā tiek uzskatītas par ētiskā AI noteikto normu ievērošanu. Tas ir svarīgs akcents, jo parasti tiek pieņemts, ka “tikai kodētāji” vai tie, kas programmē AI, ir pakļauti AI ētikas jēdzieniem. Kā jau iepriekš tika uzsvērts, ir nepieciešams ciemats, lai izstrādātu un ieviestu mākslīgo intelektu, un tam visam ciematam ir jābūt pieredzējušam un jāievēro AI ētikas priekšraksti.

Tagad, kad esmu ielicis noderīgu pamatu, mēs esam gatavi sīkāk iedziļināties AI tiesību aktā.

Četri būtiski veidi, kā īstenot AI tiesību aktu

Kāds pasniedz jums projektu un liek jums ķerties pie darba.

Ko jūs darāt?

AI tiesību akta kā projekta gadījumā apsveriet šos četrus būtiskos soļus, lai virzītos uz priekšu:

  • Izmantojiet kā ieguldījumu AI likumu formulēšanā: Izmantojiet projektu, lai palīdzētu formulēt AI likumus, cerams, ka to darīs saskaņoti federālā, štata un vietējā līmenī (iespējams, palīdzot arī starptautiskajiem AI juridiskajiem centieniem).
  • Palīdzība AI ētikas plašākai ieviešanai: Izmantojiet plānu, lai veicinātu mākslīgā intelekta ētikas formulējumus (dažreiz saukti par “saistošajiem likumiem” salīdzinājumā ar juridiski saistošiem “stingrajiem likumiem”), lai iedvesmotu un virzītu uzņēmumus, privātpersonas, valsts iestādes un citus apgabalus uz labāku un konsekventāku ētiku. AI rezultāti.
  • Veidot AI izstrādes aktivitātes: Izmantojiet plānu, lai veicinātu AI izstrādes metodoloģiju un apmācības aspektu izveidi, lai mēģinātu panākt, lai AI izstrādātāji un tie, kas nodarbojas ar vai izmanto AI, labāk apzinātos, kā izstrādāt AI atbilstoši vēlamajiem AI ētikas priekšrakstiem un paredzot. par gaidāmo AI likumu pieņemšanu.
  • Motivējiet AI parādīšanos, lai palīdzētu kontrolēt AI: Izmantojiet projektu, lai izstrādātu AI, kas tiks izmantota, lai mēģinātu pārbaudīt un līdzsvarot citus AI, kas varētu novirzīties uz nevēlamo teritoriju. Šis ir viens no tiem makroskopiskajiem viedokļiem, saskaņā ar kuru mēs varam izmantot to, kas šķietami ir satraucošs, lai arī (varētu teikt, ironiski) palīdzētu mūs aizsargāt.

Esmu apspriedis katru no šiem četriem iepriekšminētajiem soļiem savās sleju publikācijās.

Šajā diskusijā es vēlētos pievērsties ceturtajam uzskaitītajam solim, proti, AI tiesību akts var kalpot par motivāciju AI attīstībai, lai palīdzētu kontrolēt AI. Tas ir nedaudz šokējošs vai pārsteidzošs solis daudziem, kuri vēl nav pilnībā iekļuvuši šajā AI virzošajā jomā.

Ļaujiet man precizēt.

Vienkāršai analoģijai vajadzētu palīdzēt. Mūsdienās mēs visi esam pieraduši pie kiberdrošības pārkāpumiem un hakeru ielaušanās. Gandrīz katru dienu mēs dzirdam par kādu jaunāko nepilnību mūsu datoros vai to ietekmē, kas ļaus nelietīgiem ļaundariem izzagt mūsu datus vai ievietot mūsu klēpjdatoros šausmīgu izpirkuma programmu.

Viens no veidiem, kā cīnīties pret šiem nicināmajiem mēģinājumiem, ir izmantot specializētu programmatūru, kas mēģina novērst šīs ielaušanās. Gandrīz noteikti jūsu datorā mājās vai darbā ir pretvīrusu programmatūras pakotne. Iespējams, ka jūsu viedtālrunī ir kaut kas līdzīgs neatkarīgi no tā, vai saprotat, ka tas ir vai nav.

Es domāju, ka dažreiz jums ir jācīnās ar uguni ar uguni (skatiet manus rakstus par to, piemēram, plkst saite šeit un saite šeit).

AI gadījumā, kas nonāk aizliegtajā valstībā AI For Bad, mēs varam mēģināt izmantot AI uz labu kas cīnās ar šo ļaunprātīgo AI For Bad. Tas, protams, nav brīnumlīdzeklis. Kā jūs zināt, notiek nepārtraukta kaķa un peles gambīts starp ļaundariem, kas cenšas ielauzties mūsu datoros, un kiberdrošības aizsardzībā panākto progresu. Tā ir gandrīz bezgalīga spēle.

Mēs varam izmantot AI, lai mēģinātu tikt galā ar AI, kas ir nogājusi aizliegtu ceļu. Tas palīdzēs. Tas nebūs īpaši sudraba lode, jo nelabvēlīgais AI, uz kuru vērsts, gandrīz noteikti tiks izstrādāts, lai izvairītos no jebkādas šādas aizsardzības. Šī būs nepārtraukta AI un AI salīdzināšana.

Jebkurā gadījumā AI, ko izmantojam, lai sevi aizsargātu, nodrošinās zināmu aizsardzību pret sliktu AI. Tādējādi mums neapšaubāmi ir jāizstrādā AI, kas var mūs aizsargāt vai pasargāt. Un mums ir arī jācenšas izveidot aizsargājošo AI, lai tā pielāgotos sliktajam AI. Būs sīva zibens ātruma kaķa-peles līdzība.

Ne visiem patīk šī AI lomas paplašināšana.

Tie, kuri jau uztver mākslīgo intelektu kā viendabīgu amorfu konglomerātu, sajustu zosādu un murgos, pievēršoties šim viltotajam AI pret AI gambītu. Ja mēs cenšamies savienot uguni ar uguni, iespējams, mēs tikai kurinām vēl lielāku uguni. AI kļūs par milzīgu ugunskuru, kuru mēs vairs nekontrolējam un izvēlēsimies paverdzināt cilvēci vai noslaucīt mūs no planētas. Runājot par AI kā eksistenciāla riska apspriešanu, mums parasti tiek likts domāt, ka visi AI sapulcēsies kopā. Skatiet manu diskusiju par šiem jautājumiem vietnē saite šeit. Redziet, mums ir teikts, ka katrs AI gabals satvers savus brāļus AI un kļūs par vienu lielu un vienotu ģimeni.

Tas ir drausmīgais un neapšaubāmi satraucošais scenārijs, kad saprātīgs mākslīgais intelekts ir mafija "viss par vienu" un viens par visiem.

Lai gan jūs esat laipni aicināti izteikt šādus minējumus par to, ka tas kādreiz varētu notikt, es jums apliecinu, ka pašlaik mūsu rīcībā esošais AI sastāv no kravas automašīnām ar atvienotām atšķirīgām AI programmām, kurām nav īpaša veida, kā savstarpēji sazvēroties.

To sakot, esmu pārliecināts, ka tie, kas dedzīgi tic AI sazvērestības teorijām, uzstās, ka es to esmu mērķtiecīgi teicis, lai slēptu patiesību. Aha! Iespējams, mani atmaksā mūsdienu mākslīgais intelekts, kas jau plāno lielo AI pārņemšanu (jā siree, es peldēšos bagātībās, kad AI valdīs). Vai arī, un es noteikti neatbalstu šo citu leņķi, iespējams, es akli neapzinos, kā mākslīgais intelekts mums aiz muguras slepeni plāno. Es domāju, ka mums būs jāgaida un jāskatās, vai es esmu daļa no AI apvērsuma vai AI nožēlojams glāsts (ak, tas sāp).

Atgriežoties pie zemes apsvērumiem, īsi izpētīsim, kā mūsdienu AI var izmantot, lai palīdzētu īstenot AI tiesību aktu. Es to ērti un īsumā nosaukšu kā Labs AI.

Mēs izmantosim piecus pamatakmeņus, kas ietverti AI tiesību aktā:

  • Labs AI reklamēšanai Drošas un efektīvas sistēmas: Ikreiz, kad esat pakļauts AI sistēmai vai to izmantojat, Good AI mēģina noskaidrot, vai izmantotais AI nav drošs vai neefektīvs. Pēc šādas noteikšanas labs AI var jūs brīdināt vai veikt citas darbības, tostarp slikta AI bloķēšanu.
  • Labs AI nodrošināšanai Algoritmiskā diskriminācijas aizsardzība: Izmantojot AI sistēmu, kurā var būt ietverti diskriminējoši algoritmi, Labs AI mēģina noskaidrot, vai jums ir nepietiekama aizsardzība, un mēģina noteikt, vai izmantotajā AI patiešām pastāv nepamatoti aizspriedumi. Labais AI varētu jūs informēt un, iespējams, automātiski ziņot par citu AI dažādām iestādēm, kā to var noteikt AI tiesību akti un juridiskās prasības.
  • Labs AI saglabāšanai Datu konfidencialitāte: Šāda veida Good AI mēģina aizsargāt jūs no datu privātuma pārkāpumiem. Ja cits AI vēlas pieprasīt datus, kas, iespējams, nav patiesi nepieciešami no jums, Labais AI informēs jūs par pārsniegšanas darbību. Labs AI var arī potenciāli maskēt jūsu datus tādā veidā, kas, ievadot to citam AI, joprojām saglabās jūsu datu privātuma tiesības. utt.
  • Labs AI izveidei Paziņojums un skaidrojums: Mēs visi, visticamāk, saskaramies ar mākslīgā intelekta sistēmām, kurām ļoti trūkst pienācīgu un atbilstošu paziņojumu sniegšanas un kuras diemžēl nespēj parādīt atbilstošu skaidrojumu savai darbībai. Labs AI var mēģināt interpretēt vai iztaujāt otru AI, lai, iespējams, identificētu paziņojumus un paskaidrojumus, kas bija jāsniedz. Pat ja konkrētā gadījumā tas nav iespējams, Good AI vismaz brīdinās jūs par cita AI kļūmēm un, iespējams, ziņos par AI izraudzītajām iestādēm, pamatojoties uz noteiktajiem AI likumiem un juridiskām prasībām.
  • Labs AI piedāvāšanai Cilvēka alternatīvas, apsvērumi un atkāpšanās: Pieņemsim, ka izmantojat mākslīgā intelekta sistēmu un šķietami, ka mākslīgais intelekts neatbilst uzdevumam. Jūs, iespējams, nesapratīsit, ka viss kļūst skābs, vai arī esat nedaudz piesardzīgs un nezināt, kā rīkoties šajā situācijā. Šādā gadījumā Good AI klusībā pārbaudītu, ko dara otrs AI, un varētu jūs brīdināt par būtiskām bažām saistībā ar šo AI. Pēc tam jums tiks piedāvāts pieprasīt cilvēka alternatīvu AI (vai arī Labais AI varētu to darīt jūsu vārdā).

Lai tālāk saprastu, kā šāda veida Labs AI var izstrādāt un izmantot, skatiet manu populāro un augsti novērtēto AI grāmatu (ar pagodinājumu teikt, ka tā ir atzīmēta kā “Top Ten”) par to, ko es parasti esmu dēvējis par AI sargeņģeļiem, sk. saite šeit.

Secinājumi

Es zinu, ko tu domā. Ja mums ir labs AI, kas ir izstrādāts, lai mūs aizsargātu, pieņemsim, ka labais AI tiek sabojāts un kļūst par sliktu AI. Slavenā vai bēdīgi slavenā latīņu frāze šķiet pilnībā piemērota šai iespējai: Quis custodiet ipsos custodes?

Frāze tiek attiecināta uz romiešu dzejnieku Juvenālu, un to var atrast viņa darbā ar nosaukumu Satīri, un to var brīvi tulkot kā nozīmi, kas sargās vai vēros pašus sargus. Daudzas filmas un TV pārraides, piemēram Star Trek ir atkārtoti izmantojuši šo līniju.

Tas noteikti ir tāpēc, ka tas ir lielisks punkts.

Protams, visos pieņemtajos AI likumos būs jāietver gan sliktais AI, gan pat sliktais AI. Tāpēc būs ļoti svarīgi uzrakstīt saprātīgus un visaptverošus AI likumus. Likumdevēji, kuri vienkārši mēģina mest pie sienas nejaušas legālas lietas un cer, ka tā ievēros mākslīgā intelekta likumus, atklās, ka pamatīgi pietrūks mērķa.

Mums tas nav vajadzīgs.

Mums nav ne laika, ne mēs varam segt sabiedrības izdevumus, lai tiktu galā ar neatbilstoši izstrādātiem AI likumiem. Esmu norādījis, ka diemžēl dažkārt mēs esam liecinieki jauniem ar AI saistītiem likumiem, kas ir slikti izstrādāti un ir pārpildīti ar visdažādākajām juridiskajām slimībām. Skatiet, piemēram, manu Ņujorkas (NYC) AI aizspriedumu audita likuma zondēšanas analīzi vietnē saite šeit.

Pārliecināsimies, ka mēs atbilstoši izmantojam AI tiesību akta projektu, kas mums tagad ir attiecībā uz AI. Ja mēs ignorējam plānu, mēs esam zaudējuši, uzlabojot savu spēli. Ja mēs nepareizi īstenojam plānu, kauns par mums, ka esam uzurpējuši noderīgu pamatu.

Cienījamais romiešu dzejnieks Juvenāls teica vēl kaut ko, ko mēs varam izmantot šajā gadījumā: Anima sana in corpore sano.

Parasti tas nozīmē apgalvojumu, ka būtu saprātīgi gan vesels prāts, gan vesels ķermenis. Tas ļauj mums izturēt jebkāda veida pūliņu, saskaņā ar Juvenala teikto, un tas noteikti būs vienīgais ceļš uz miera vai tikuma dzīvi.

Ir pienācis laiks izmantot veselu prātu un veselu ķermeni, lai pārliecinātos, ka cilvēcei tiks saglabātas un stingri nostiprinātas mūsu cilvēktiesības jaunajā visuresošā un dažkārt arī nevēlamā AI pasaulē. Tas ir saprātīgs romiešu padoms, kas mums būtu jāievēro šodienas steigā, AI reibuma laikmetā un nākotnē, kas noteikti ir piepildīta ar labu un sliktu AI.

Avots: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- tiesību akts-ieskaitot-un-apbrīnojami-izmantojot-ai-outrightly/