Politikas veidotājiem jārisina reāli AI izaicinājumi

Koncentrēšanās uz miglaino izzušanas risku no AI ir bīstama uzmanības novēršana.

Pagājušajā nedēļā Silikona ielejas finansēta grupa ar nosaukumu AI drošības centrs publicēja viena teikuma paziņojumu: "AI izraisītā izzušanas riska mazināšanai ir jābūt globālai prioritātei līdzās citiem sabiedrības mēroga riskiem, piemēram, pandēmijām un kodolkaram." To parakstīja daudzi nozares līderi un cienījami AI pētnieki, un tas tika plaši atspoguļots presē.

Plašāka reakcija uz paziņojumu bija skarba. Oksfordas Universitātes profesore Sandra Vahtere sacīja, ka tas bija tikai reklāmas triks. Daži no saprātīgākiem parakstītājiem, piemēram, drošības eksperts Brūss Šnejers, ātri pauda parakstītāju nožēlu. "Es patiesībā nedomāju, ka mākslīgais intelekts apdraud cilvēku izzušanu," sacīja Šneiers.

Citi domāja, ka paziņojums patiešām ir līdzekļu vākšanas triks. Djūka universitātes socioloģijas profesore Kīrena Hīlija publicēja izspēles pārfrāzi: “Mani draugi un es prasīsim absolūtu kravas automašīnu grantu, lai mazinātu burtiskus sugu līmeņa eksistenciālos draudus, kas saistīti ar šo lietu, ko mēs apgalvojam, ka radām.”

Marietje Schaake, bijusī ES parlamenta deputāte, kas tagad strādā Stenfordas Universitātes Kiberpolitikas centrā, ierosināja, ka paziņojuma zemteksts bija tāds, ka politikas veidotājiem ir jārisina eksistenciāls risks, savukārt uzņēmumu vadītāji nosaka faktiskos AI izmantošanas noteikumus. Lai gan mākslīgais intelekts varētu būt jauns, viņa sacīja, šis netiešais arguments, ka AI nozares līderi “ir vislabākajā pozīcijā, lai regulētu tās pašas tehnoloģijas, kuras viņi ražo”, ir nekas vairāk kā runas punkti, kas ir atkārtoti izmantoti no to iepriekšējās izmantošanas sociālajos medijos un strīdos par kriptovalūtām.

Manuprāt, apokaliptiskie brīdinājumi par mākslīgā intelekta apzinātas un neatkarīgas aģentūras panākšanu novērš uzmanību no reālajiem AI izaicinājumiem, kuru dēļ regulatoriem ir jāpastiprina spēkā esošo tiesību aktu izpilde un politikas veidotājiem jāapsver pārskatīšana, lai novērstu juridiskas nepilnības.

Kā teica Federālās tirdzniecības komisijas priekšsēdētāja Lina Khana, krāpšana, kas veikta, izmantojot AI, ir nelikumīga. Aģentūra jau ir brīdinājusi par AI izmantošanu, lai uzdotos par cilvēkiem, lai veiktu video un tālruņa krāpniecību. Ķīna ir pamanījusi to pašu un vēršas pret AI vadītiem krāpniekiem. Nav skaidrs, vai šeit ir radušies jauni juridiski jautājumi, taču būs nepieciešami milzīgi izpildes centieni, lai kontrolētu šos gaidāmos AI krāpšanas plūdus. Aģentūras budžeta pieprasījuma 590 miljonu ASV dolāru pilnīga finansēšana būtu daudz produktīvāks valsts naudas izlietojums nekā AI eksistenciālo risku izpēte.

Ikviens ir pienācīgi noraizējies par mākslīgā intelekta radīto dezinformāciju, piemēram, neseno "viltus Putina" paziņojumu, ka Krievija ir pakļauta uzbrukumam. Marķēšana var ievērojami samazināt šos riskus. Republikāņu Nacionālās komitejas reklāma, kas sekoja Baidena paziņojumam par viņa kandidatūru prezidenta amatā, izmantoja mākslīgo intelektu, lai radītu attēlus par to, kas varētu notikt jaunā Baidena prezidentūras laikā, taču tas tika apzīmēts kā tāds, un tas samazināja dezinformācijas risku.

AI pārredzamība ir nenozīmīgs politikas auglis, kas politikas veidotājiem būtu jātver, kā šķiet, ka daži to dara. Šonedēļ Eiropas Komisijas viceprezidente Vera Jourova mudināja tehnoloģiju uzņēmumus marķēt mākslīgā intelekta radīto saturu. ASV pārstāvis Ričijs Torress (DN.Y.) drīzumā ieviesīs tiesību aktus, kas paredz, ka tādiem pakalpojumiem kā ChatGPT ir jāatklāj, ka tā produkcija ir “ģenerēta mākslīgā intelekta rezultātā”.

Autortiesības un AI ir vēl viens izaicinājums. Ir vajadzīga skaidrība par kompensāciju autortiesību īpašniekiem par viņu materiāla izmantošanu mākslīgā intelekta apmācībā. Februārī Getty iesūdzēja tiesā Stability AI ASV, sakot, ka AI uzņēmums ir nokopējis 12 miljonus Getty attēlu bez atļaujas apmācīt savu Stable Diffusion AI attēlu ģenerēšanas programmatūru. Pagājušajā nedēļā tā lūdza Londonas tiesu bloķēt Stability AI Apvienotajā Karalistē, jo AI uzņēmums bija pārkāpis Getty autortiesības, apmācot savu sistēmu.

Šīs lietas tiks izskatītas tiesā. Bet ir pienācīgs arguments, ka autortiesību īpašniekiem vispār nav jāsaņem kompensācija godīgas izmantošanas dēļ vai tāpēc, ka AI apmācībai tiek iegūti tikai neaizsargāti fakti un idejas. Turklāt Eiropas Savienības 2019. gada direktīvā par autortiesībām digitālajā vienotajā tirgū ir ietverts izņēmums, kas atļauj tiešsaistes ar autortiesībām aizsargāta materiāla teksta un datu ieguvi, ja vien autortiesību īpašnieks neatsakās no tā, izmantojot tehnoloģiskus aizsardzības līdzekļus, piemēram, galvenes bloķētāju, lai novērstu skenēšanu. Tas varētu attiekties uz AI apmācības datiem.

Pašreizējais Eiropas Savienības Mākslīgā intelekta likuma projekts pieprasa atklāt ar autortiesībām aizsargātos darbus, kas tiek izmantoti mākslīgā intelekta apmācībā. Šķiet, ka tas ir paredzēts, lai autortiesību īpašnieki varētu izmantot savas tiesības atteikties no teksta un datu ieguves AI apmācībai. Bet tas varētu būt arī solis ceļā uz kaut ko tālāk. Tas varētu novest pie obligātā licenču režīma, kas neļautu autortiesību īpašniekiem bloķēt AI apmācību, bet nodrošinātu viņiem zināmu kompensāciju par viņu intelektuālā īpašuma izmantošanu. Lai atrisinātu šīs autortiesību problēmas, politikas veidotājiem būs jāpievērš īpaša uzmanība.

ES AI likumā arī noteikts, ka riskantām mākslīgā intelekta sistēmām ir jāveic sertifikācijas process, kura mērķis ir nodrošināt, ka riski ir atbilstoši novērtēti un pieņemti saprātīgi mazināšanas pasākumi. Pašreizējā projektā tādi fundamentālie modeļi kā ChatGPT tiek uzskatīti par riskantām sistēmām, uz kurām attiecas sertifikācija, un tas ir potenciāls slogs, kas acīmredzot lika Open AI vadītājam Semam Altmanam teikt, ka viņš atsauks ChatGPT no Eiropas, ja nespēs to ievērot. Kopš tā laika viņš ir atteicies no šiem draudiem, sakot, ka neplāno doties prom.

Tomēr viņam ir jēga. Politikas veidotājiem, kas meklē konkrētu problēmu, būtu jāuzdod sev jautājums, kā vispārējas nozīmes AI sistēmu, piemēram, ChatGPT, varētu sertificēt kā “drošu”, ja daudzi riski parādīsies tikai tad, kad sistēma tiks lietota praksē.

Šie ir tikai daži no galvenajiem AI jautājumiem, kas būtu jāuztraucas politikas veidotājiem. Citi ietver arvien spējīgāku AI sistēmu ietekmi uz nodarbinātību, privātuma problēmas, kad apmācību dati ietver personas informāciju, koncentrēšanās tendence, ko rada AI programmatūras apmācības milzīgās izmaksas un tīkla ietekme, 230. sadaļas atbildības noteikumu piemērošana un likumi pret aizspriedumiem kreditēšanas, mājokļu un nodarbinātības jomā, kad AI veic atbilstības novērtējumus.

Politikas veidotājiem nav jāklīst miglainās jomās, kur autonomas AI programmas iziet no kontroles un apdraud cilvēku izdzīvošanu. Viņiem ir daudz darāmā, stājoties pretī daudzajiem AI izaicinājumiem reālajā pasaulē.

Avots: https://www.forbes.com/sites/washingtonbytes/2023/06/06/policymakers-need-to-deal-with-real-ai-challenges/