AI ētika Piesardzīgi izvērtēt, vai piedāvāt AI novirzes.

Vēlējās: AI aizspriedumu mednieki.

Tā varētu būt mūsdienu reklāma, ko jūs sāksit redzēt sociālo mediju kanālos un parādīsies dažādos tiešsaistes darba sludinājumos. Šī ir salīdzinoši jauna koncepcija vai loma. Tas nes sev līdzi pretrunas. Daži dedzīgi ticīgie dedzīgi iebilst, ka tam ir ļoti liela jēga un tam vajadzēja notikt visu laiku, savukārt citi diezgan nervozi skrāpē galvu un nav tik pārliecināti, ka tā ir laba doma.

Lomas būtība sastāv no AI jebkādu slēptu aizspriedumu vai iegultas diskriminējošas prakses likvidēšanā. Glābšanai nāk dedzīgie un agrākais AI neobjektīvi mednieki. Domājams, ka viņi būtu datorpratīgi devību mednieki. Vēl jo vairāk, cerams, AI iespēju dziļumā.

Iegūstiet ieroci, ceļosiet un, izmantojot AI prasmīgu šaušanu, varat atklāt šīs nepatīkamās un nevēlamās AI novirzes.

Tas rada virkni sarežģītu jautājumu par šādas taktikas saprātīgumu, atklājot AI novirzes. Kā es īsi apspriedīšu, lūdzu, ņemiet vērā, ka AI parādīšanās ir radījusi arī AI aizspriedumus. AI aizspriedumu straume. Manu pastāvīgo un plašo AI ētikas un ētikas AI atspoguļojumu skatiet saite šeit un saite šeit, tikai nosaukt dažus.

Kā mēs varam atklāt, ka konkrētai AI sistēmai ir novirzes?

Varat to uzticēt AI izstrādātājiem, kuri ir izstrādājuši AI. Lieta ir tāda, ka viņi var būt tik iegrimuši aizspriedumos, ka paši nevar atpazīt novirzes savā izdomātajā AI. Viņiem tas viss izskatās labi. Vai arī viņi varētu būt tik sajūsmā par mākslīgo intelektu un par to lepoties ar sevi, ka pēc tam kritiski izvērtēt, vai tajā nav aizspriedumu, būtu grūti un īsts kritums. Varētu šķist, ka daudzi citi šādi iemesli neļauj AI izstrādātājiem uzņemties šo uzdevumu, tostarp prasmju trūkums, lai noskaidrotu iegultās novirzes, laika trūkums projektā, lai to paveiktu, utt.

Labi, turpiniet nolīgt ārējos konsultantus, kas it kā paveiks melno darbu jūsu vietā. Izrādās, ka konsultanti ar prieku pārbaudīs jūsu AI aizspriedumus, iekasējot no jums diezgan santīmu (daudz, daudz santīmu). Saprotiet, ka jums ir jāmaksā, lai viņi varētu strādāt ar jūsu AI sistēmu. Pēc tam jums ir jāliek viņiem rakņāties, kas var aizņemt neskaitāmi daudz dārgu, darbietilpīgu stundu. Konsultantu izmantošana ir iespēja, ja jums ir tam budžets.

Potenciālajā “plaisā”, kā atrast šos mānīgos AI aizspriedumus, nonāk varonīgie un iespaidīgie AI aizspriedumi devību mednieki.

Parasti jūs viņiem nemaksājat avansā. Viņi cenšas atrast AI aizspriedumus savā laikā, un viņiem pašiem jāsedz rēķini. Tikai tad, ja viņi veiksmīgi atklāj aizspriedumus, viņi saņem samaksu. Es domāju, ka jūs varētu droši apgalvot, ka piemērotā domāšanas veidā tā ir parastā devību mednieka definīcija. Saņemiet samaksu, ja jums izdosies. Nesaņem atalgojumu, ja tev neveicas. Periods, stāsta beigas.

Bounty programmas ir pastāvējušas vismaz kopš romiešu laikiem, un tāpēc mēs varētu pieņemt, ka tās darbojas, jo ir veiksmīgi izturējušas kā praksi visus šos gadus.

Šeit ir jums aizraujošs vēsturisku nieciņu gabals. Tiek ziņots, ka Romas impērijas laikā Pompejas pilsētā izlikts ziņojums vēstīja, ka ir nepieciešami galvojumu mednieki, lai atrastu vara podu, kas pazudis nelielā veikalā. Atlīdzība par vara poda atgūšanu bija iespaidīga balva – sešdesmit piecas bronzas monētas. Atvainojiet, ka mēs nezinām, vai kāds galvu mednieks atrada vara podu un pieprasīja bronzas monētas, taču mēs zinām, ka galvojumu medības noteikti ir turpinājušās kopš tiem seniem laikiem.

Mūsdienīgākos laikos jūs varētu zināt, ka 1980. gados tika piedāvātas dažas ievērojamas balvas, lai atrastu datora kļūdas vai kļūdas gatavās programmatūras pakotnēs, un pēc tam 1990. gados Netscape piedāvāja ievērojamu atlīdzību par kļūdu atrašanu savā tīmekļa pārlūkprogrammā. (kļūstot par vienu no tā laika ievērojamākajiem uzņēmumiem, kas to dara). Gan Google, gan Facebook bija izvēlējušies kļūdu meklēšanu, sākot attiecīgi 2010. un 2013. gadā. Dažus gadus vēlāk, 2016. gadā, pat ASV Aizsardzības departaments (DoD) iesaistījās dāsnajā darbā, piedaloties “Uzlauzt Pentagonu” (ņemiet vērā, ka publiski orientētā balva bija par kļūdām, kas tika atrastas dažādās ar aizsardzības aizsardzības vietnēs, nevis aizsardzības misijai kritiskās sistēmas).

Padziļināsimies par kļūdu novēršanu. Es saprotu, ka šajā diskusijā galvenokārt cenšos runāt par mākslīgā intelekta aizspriedumiem devību medībās, taču ir dažas diezgan būtiskas paralēles ar kļūdu devību arēnu.

Daži ir nepārprotami neizpratnē, ka jebkurš uzņēmums vēlas piedāvāt dāvaniņu, lai atrastu kļūdas (vai šajā gadījumā AI novirzes) savās sistēmās.

No virsmas šķiet, ka tā ir “jūs to prasāt” stratēģija. Ja darāt pasaulei zināmu, ka uzņemat tos, kuri varētu mēģināt atrast caurumus jūsu programmatūrā, tas šķiet līdzvērtīgi zagļiem, lai viņi iet uz priekšu un mēģina ielauzties jūsu mājā. Pat ja jūs jau uzskatāt, ka jums ir diezgan laba apsardzes signalizācijas sistēma un nevienam nevajadzētu iekļūt jūsu apsargātajā mājā, iedomājieties, ka lūdzat un patiešām lūdzat zagļus, lai viņi visi nolaižas jūsu dzīvesvietā un noskaidro, vai viņi to var. ielauzties tajā. Ak, tās nepatikšanas, ko mēs sev aužam.

To pašu var teikt par lūgumu devību medniekiem atrast aizspriedumus jūsu AI.

Pirmkārt, tas, iespējams, nozīmē, ka jūs jau ticat vai pat skaidri zināt, ka jūsu AI patiešām ir aizspriedumi. Tā ir šokējoši tieša, netieša atzīšanās, ko, šķiet, vēlas izteikt tikai daži, kas varētu radīt pretēju rezultātu.

Otrkārt, jūs nezināt, ko tie devību mednieki varētu darīt. Viņi varētu izvēlēties pastāstīt visai pasaulei, ka ir atklājuši jūsu AI novirzes. Tiek pieņemts, ka tas varētu zaudēt balvas saņemšanu, lai gan daži varētu baudīt uzmanību vai mēģināt nostiprināt savu statusu, lai saņemtu konsultācijas un citas ieņēmumu gūšanas iespējas. Varbūt tas varētu būt pilnīgi altruistisks. Tas varētu būt AI aktivitātes veids. Es varu turpināt.

Treškārt, visai lietai varētu būt viltīgs pavērsiens. Atlīdzību mednieks, kurš apgalvo, ka meklē AI aizspriedumus, iespējams, velnišķīgi meklē veidus, kā uzbrukt jūsu AI sistēmai. Visa lieta ir šarde, lai galu galā veiktu smagu kiberuzbrukumu. Jūs, iespējams, domājāt, ka viņi cenšas palīdzēt, kamēr viņu sirdīs ir nepareizas darbības. Skumji, bet iespējams.

Ceturtkārt, mēs varam kļūt vēl viltīgāki par šo jautājumu. Atlīdzību mednieks atklāj apkaunojošus un, iespējams, tiesas prāvu rosinošus AI aizspriedumus. Atlīdzība ir zināma dolāru summa, ko mēs sauksim par X. Tā vietā, lai pieprasītu kompensāciju, devēju mednieks veic dīvainu izpirkuma programmatūras provokāciju. Ja jūs maksājat galvojumu medniekam summu, kas ir desmit reizes lielāka par X vai varbūt debesīm, kas pārsniedz limitu, viņi jums pateiks par AI novirzēm. Jums ir jāatbild līdz svētdienas vakaram pusnaktij. Pēc šī brīža AI novirzes tiks atklātas, lai tās varētu redzēt visi. Ak, šausmīgi grūts stāvoklis.

Piektkārt, jaunākie ir tā sauktie “hack to return” kiberkrāpnieki, kuri pēc tiešsaistes mīklas nozagšanas nolemj nožēlot grēkus un atdot daļu no nelikumīgi iegūtā laupījuma, ko viņi sagrāba. Uzņēmums, kas daļēji atgriež naudu, ir gatavs atlikušo nozagto summu uzskatīt par zagļiem pēc tam piešķirtu dāvinājumu. Šķiet, ka visi “uzvar”, jo lielākā daļa līdzekļu tiek atdota, un tikmēr kiberkrāpnieki netiek likumīgi vajāti, turklāt viņi saņem pirātu velti. Vai tā ir apdomīga vai mānīga nelikumīga darbība?

Es saprotu, ka daži no jums varētu teikt, ka nevienam nevajadzētu izlaist AI, kurā ir jebkādi aizspriedumi. Šķiet, ka tas atrisina visu šo dilemmu par to, vai izmantot AI aizspriedumus devību medniekiem vai nē. Vienkārši nenokļūstiet devības situācijā. Pārliecinieties, vai jūsu AI izstrādātāji rīkojas pareizi un nepieļauj AI novirzes savās AI sistēmās. Iespējams, izmantojiet konsultantus, lai veiktu dubultu pārbaudi. Būtībā dariet visu, kas jums jādara, lai nekad nedomātu par AI aizspriedumiem un nelūgtu nākt pie galda.

Jā, tas varētu šķist pilnīgi saprātīgi. Problēma ir tā, ka tas ir arī mazliet sapņains. Daudzu mākslīgā intelekta sistēmu sarežģītība ir tik liela, ka mēģinājums nodrošināt, lai nerastos neviena AI novirze, būs grūti izdarīt. Turklāt dažas AI sistēmas ir mērķtiecīgi izstrādātas, lai pielāgotos un “mācītos” darbības gaitā. Tas nozīmē, ka kādā nākotnē jūsu izstrādātais mākslīgais intelekts, kas, pieņemsim, ka sākumā bija tīri tīrs un bez aizspriedumiem, varētu iemiesot aizspriedumus (es to nedomāju antropomorfā veidā, kā es paskaidrošu tālāk, kā mēs turpināt par šo tēmu).

Tie, kas atbalsta programmatūras kļūdu meklēšanu, mēdz iebilst, ka ir lietderīgi piedāvāt šādas balvas. Mēs varam apsvērt to pamatojumu un noskaidrot, vai tas attiecas arī uz AI aizspriedumu sfēru.

Kļūdu piemaksu atbalstītāji uzsver, ka tā vietā, lai mēģinātu izlikties, ka jūsu sistēmā nav nekādu caurumu, kāpēc gan neveicināt caurumu atrašanu, darot to “kontrolēti”? Turpretī bez šādas veltes pūlēm jūs varētu tikai cerēt un lūgt, lai nejauši neviens neatradīs bedri, bet, ja tā vietā piedāvājat dāvaniņu un sakāt tiem, kas atradīs bedri, ka viņi tiks apbalvoti, tas piedāvā iespēja pēc tam pašam izkrastīt bedri un pēc tam neļaut citiem to slepeni atrast kādā vēlākā brīdī.

To pašu varētu teikt AI aizspriedumu lietošanas gadījumā. Ja jūs piedāvājat pietiekamu atlīdzību, cerams, kompensāciju mednieki pievērsīs jūsu uzmanību AI aizspriedumu atklāšanai. Pēc tam jūs varat tikt galā ar AI novirzēm salīdzinoši klusā un izmērītā veidā. Tas vēlāk varētu novērst daudz lielāku un biedējošāku problēmu, proti, to, ka kāds cits jūsu mākslīgajā intelektā konstatē AI novirzes un kliedz par to augstās debesīs.

Parasti uzņēmums, kas vēlas nodrošināt kļūdu meklēšanas pasākumus, ieviesīs neaizsargātības atklāšanas politiku (VDP). VDP norāda, kā kļūdas ir jāatrod un jāziņo uzņēmumam, kā arī tas, kā medniekam tiks piešķirta atlīdzība vai balva. Parasti VDP pieprasīs, lai mednieks paraksta neizpaušanas līgumu (NDA), lai viņš neatklātu citiem, ko atradis.

Jēdziens par NDA izmantošanu ar devību medniekiem ir pretrunīgs. Lai gan uzņēmumam, kas piedāvā atlīdzību, ir jēga saglabāt atrastos ekspozīcijas, tas arī apslāpē vispārējo izpratni par šādām kļūdām. Jādomā, ka, ja tiek atļauts runāt par programmatūras kļūdām, tas varētu veicināt citu sistēmu drošību citos uzņēmumos, kas pēc tam palielinātu to iedarbību. Daži devību mednieki neparakstīs NDA daļēji sabiedrības vēlmes dēļ un daļēji tāpēc, ka cenšas slēpt savu identitāti. Ņemiet vērā arī to, ka NDA aspekts parasti rodas tikai pēc tam, kad mednieks apgalvo, ka ir atradis kļūdu, nevis pieprasa to iepriekš.

Daži VDP nosaka, ka NDA ir tikai ierobežots laika periods, ļaujot uzņēmumam vispirms atrast risinājumu šķietamajai problēmai un pēc tam ļaut par to atklāt plašāku informāciju. Kad caurums ir aizsprostots, uzņēmums ļauj atbrīvot NDA, lai pārējā pasaule varētu uzzināt par kļūdu. Tiek ziņots, ka parastais laiks līdz atrisinājumam par dārgām kļūdām ir aptuveni 15–20 dienas, kad uzņēmums vēlas to nekavējoties novērst, savukārt citos gadījumos tas var izstiepties līdz 60–80 dienām. Attiecībā uz samaksu galvojumu medniekam, tā saukto laiku līdz samaksai, pēc tam, kad ir pārbaudīts, ka bedre faktiski pastāv, tiek ziņots, ka kompensāciju maksājumi parasti ir aptuveni 15–20 dienu laikā mazākiem gadījumiem un aptuveni 50–60 dienās. dienas lielākajiem gadījumiem (tās ir pastāvīgi mainīgas nozares norādes un tiek minētas tikai kā ilustratīvs).

Vai AI aizspriedumu devējiem arī jālūdz piedalīties VDP un sazināties ar NDA?

Uz šo jautājumu varat saņemt jā un nē. Jā, dažiem uzņēmumiem vajadzētu iet šo ceļu. Nē, jūs, iespējams, nevēlaties izvēlēties šo ceļu. Faktori ietver AI lielumu un raksturu, iespējamo AI aizspriedumu risku un virkni citu ētisku, juridisku un biznesa apsvērumu, kas tiek ņemti vērā.

Es varētu piebilst, ka dāvinājumu meklēšana jūsu AI novirzēm ir daudz garāks uzdevums, nekā jūs varētu domāt no pirmā acu uzmetiena.

Mēs sāksim ar milzīgo iespēju, ka jūs pārņems AI aizspriedumu devēju mednieki.

Šobrīd jums būtu grūti atrast daudzus, kuriem būtu šāda vizītkarte. Apkārt nav daudz. Šajā ziņā ir mežonīgo Rietumu laiki. Bet, ja jēdziens par mākslīgā intelekta aizspriedumiem devību medībās kļūst arvien populārāks, it īpaši, ja balvas ir daudz un bagātīgi atalgojošas, varat derēt, ka ikviens ienirs aizspriedumu medību peldbaseinā.

Vai vēlaties, lai jūsu mākslīgā intelekta sistēmā tiktu ievēroti dažādi AI aizspriedumi? Jūs iegūsit dažus lietotājus, kuri patiesībā ir šāda veida lietas eksperti. Jūs iegūsit citus ņēmējus, kuri ir amatieri un var sarīkot nekārtības vai raudāt par vilku. Nākamā lieta, ko jūs zināt, ikviens, kas prot uzrakstīt vārdu “mākslīgais intelekts”, ieradīsies jūsu mākslīgā intelekta sistēmas zelta raktuvēs, lai atrastu šos vērtīgos AI novirzes zelta tīrradņus. Zelta drudzis ir klāt. Tas varētu jums nenākt par labu.

Jums būs rūpīgi jāpārbauda devēju mednieku iesniegumi. Paziņotajos apgalvojumos būs daudz “trokšņu” tādā nozīmē, ka daudzi no apgalvotajiem AI aizspriedumiem nepastāv, lai gan galvojumu mednieks uzstāj, ka viņi dažus ir atraduši. Iedomājieties, cik daudz darba būs nepieciešams jūsu pašu AI komandām, lai pārbaudītu kompensācijas prasības, izpētītu katra no tām pamatotību un pēc tam, iespējams, dotos uz priekšu un atpakaļ ar devību mednieku par to, vai zelts ir atklāts vai nē.

Daži apgalvo, ka tas ir vēl viens iemesls, lai visu darītu pats. Jūs neizbēgami varētu atklāt, ka veltes lieta ir lielāka problēma, nekā tā bija vērta.

Šeit ir vēl viens jautājums, kas jāapdomā. Kā devību mednieki zinās, kā izskatās AI aizspriedumi? Būtībā, bez šķietamības par to, ko meklēt, var uzskatīt, ka jebkura spīdīga klints liecina par mākslīgā intelekta novirzi uztvertajā mākslīgā intelekta zelta raktuvēs.

Pieņemsim, ka Veco Rietumu laikos jūs piedāvājāt atlīdzību par Billija kazlēna (slavenā ārpus likuma) notveršanu. Ja jūs to izdarījāt un neiekļāvāt attēlu, kā Bilijs izskatījās, iedomājieties, cik daudz galvojumu mednieku varētu ievilkt šerifa birojā kādu, par kuru viņi cerēja vai domāja, ka tas ir Billijs kazlēns. Jūs varat appludināt viltus Billy's. Tas ir slikti, jo jums, iespējams, ir jāaplūko katrs no tiem, jāuzdod izmeklējoši jautājumi un jāmēģina noskaidrot, vai šī persona patiešām bija Billijs vai nē.

Lieta ir tāda, ka, lai iestatītu AI novirzes, jums būtu prātīgi mēģināt precizēt, no kā, jūsuprāt, veido AI novirzes. Tam nepieciešama Goldilocks veida kalibrēšana. Jūs nevēlaties būt tik ierobežots, ka devību mednieki ignorē AI aizspriedumus tikai tāpēc, ka tie neatbilst jūsu noteiktajai definīcijai, un jūs arī nevēlaties, lai viņi kliegtu “Eureka!” pie katra AI neobjektivitātes kumosa, ko viņi, iespējams, atklāj.

Jums būs nepieciešams tikai pareizais Goldilocks līdzsvars tam, no kā sastāv AI novirzes, un tādējādi vēlams sniegt skaidrus norādījumus.

Liela daļa no šīm AI novirzēm devību medībās tiks vērsta uz AI balstītām mašīnmācības (ML) un dziļās mācīšanās (DL) sistēmām. Tas ir loģiski, jo ML/DL izplatība pieaug, turklāt šķiet, ka tai ir dažas no visticamākajām problēmām, kas saistītas ar nepamatotu AI novirzi.

Šie pētnieki atklāj, cik nozīmīgi var būt mākslīgā intelekta aizspriedumi devību meklēšanas centienos, jo īpaši ML/DL kontekstā: “Laika gaitā programmatūras un drošības kopienas ir izstrādājušas “kļūdu balvas”, cenšoties pārvērst līdzīgu dinamiku starp sistēmu izstrādātājiem un viņu kritiķiem. (vai hakeriem) interaktīvākiem un produktīvākiem mērķiem. Cerams, ka, apzināti aicinot ārējās puses atrast programmatūras vai aparatūras kļūdas savās sistēmās un bieži vien tam nodrošinot naudas stimulus, attīstīsies veselīgāka un ātrāk reaģējoša ekosistēma. Ir dabiski, ka ML kopiena apsver līdzīgu “neobjektivitātes veltes” pieeju, lai savlaicīgi atklātu un labotu modeļus un sistēmas ar novirzēm vai citām nevēlamām darbībām. Tā vietā, lai atrastu programmatūras kļūdas, ārējās puses tiek aicinātas atrast novirzes, piemēram, (demogrāfiskas vai citas) ievades apakšgrupas, kurās apmācīts modelis nedarbojas, un par to tiek atalgots (darbā “An Algorithmic Framework for Bias Bounties” autors Ira Globusa-Harisa, Maikls Kērnss un Ārons Rots).

Pētījuma rakstā autori izklāsta ieteikto pieeju tam, kāda veida AI aizspriedumus var meklēt devību mednieki. Ir arī norāde par to, kā novērtēt devību mednieku prasības, kas saistītas ar tādējādi atklāto iespējamo AI aizspriedumu. Saskaņā ar manām iepriekšējām piezīmēm šeit pastāv iespēja, ka jūs saņemsit maldinošus apgalvojumus un jums būs jānodala AI novirzes no kviešiem no pelavām.

Pirms ķerties pie gaļas un kartupeļiem par savvaļas un vilnas apsvērumiem, kas ir AI aizspriedumu medību pamatā, noteiksim dažus papildu pamatus par ļoti neatņemamām tēmām. Mums ir īsi jāiedziļinās AI ētikā un jo īpaši mašīnmācīšanās (ML) un dziļās mācīšanās (DL) parādīšanās.

Jūs varētu neskaidri apzināties, ka mūsdienās viena no skaļākajām balsīm AI jomā un pat ārpus AI jomas ir aicinājums pēc lielākas ētiskā AI līdzības. Apskatīsim, ko nozīmē atsaukties uz AI ētiku un ētisko AI. Papildus tam mēs izpētīsim, ko es domāju, runājot par mašīnmācīšanos un padziļinātu mācīšanos.

Viens konkrēts mākslīgā intelekta ētikas segments vai daļa, kas ir saņēmusi lielu plašsaziņas līdzekļu uzmanību, ir mākslīgais intelekts, kas demonstrē nevēlamus aizspriedumus un nevienlīdzību. Jūs varētu zināt, ka tad, kad sākās jaunākā AI ēra, bija milzīgs entuziasma uzliesmojums par to, ko daži tagad sauc. AI uz labu. Diemžēl mēs sākām būt liecinieki šim uzliesmojumam AI For Bad. Piemēram, ir atklāts, ka dažādas uz AI balstītas sejas atpazīšanas sistēmas satur rasu un dzimuma aizspriedumus, par ko esmu runājis saite šeit.

Centieni cīnīties pret AI For Bad aktīvi norisinās. Turklāt skaļš juridisks Mēģinot savaldīt pārkāpumus, notiek arī būtisks grūdiens AI ētikas ievērošanai, lai izlabotu AI neģēlību. Domājams, ka mums ir jāpieņem un jāapstiprina galvenie ētiskie AI principi AI izstrādei un izmantošanai, tādējādi samazinot AI For Bad un vienlaikus sludinot un popularizējot vēlamo AI uz labu.

Saistībā ar to es iestājos par mēģinājumu izmantot AI kā daļu no AI problēmu risinājuma, cīnoties pret uguni ar uguni šādā domāšanas veidā. Piemēram, mēs varētu iegult ētiskos AI komponentus AI sistēmā, kas uzraudzīs, kā pārējais AI dara lietas, un tādējādi, iespējams, reāllaikā uztvers jebkādus diskriminējošus centienus. Skatiet manu diskusiju vietnē saite šeit. Mums varētu būt arī atsevišķa AI sistēma, kas darbojas kā AI ētikas monitora veids. AI sistēma kalpo kā pārraugs, lai izsekotu un noteiktu, kad cits AI nonāk neētiskajā bezdibenī (skatiet manu analīzi par šādām iespējām vietnē saite šeit).

Pēc brīža es dalīšos ar dažiem visaptverošiem principiem, kas ir AI ētikas pamatā. Šur tur ir daudz šāda veida sarakstu. Varētu teikt, ka vēl nav vienota universālas pievilcības un vienprātības saraksta. Tā ir nelaimīgā ziņa. Labā ziņa ir tā, ka vismaz ir viegli pieejami AI ētikas saraksti, un tie mēdz būt diezgan līdzīgi. Kopumā tas liek domāt, ka ar sava veida pamatotu konverģenci mēs atrodam ceļu uz vispārēju kopību tam, no kā sastāv AI ētika.

Pirmkārt, īsi apskatīsim dažus vispārējos ētiskā AI priekšrakstus, lai ilustrētu, kam vajadzētu būt ļoti svarīgam ikvienam, kas izstrādā, izmanto vai izmanto AI.

Piemēram, kā to norādījis Vatikāns Roma aicinājums uz AI ētiku un kā esmu padziļināti aprakstījis plkst saite šeit, šie ir viņu identificētie seši galvenie AI ētikas principi:

  • Pārredzamība: Principā AI sistēmām ir jābūt izskaidrojamām
  • Iekļaušana: Ir jāņem vērā visu cilvēku vajadzības, lai ikviens varētu gūt labumu un visiem indivīdiem varētu piedāvāt vislabākos iespējamos apstākļus, lai izpaustos un attīstītos.
  • Atbildība: Tiem, kas izstrādā un ievieš AI izmantošanu, ir jārīkojas atbildīgi un pārredzami
  • objektivitāte: Neveidojiet un nerīkojieties saskaņā ar aizspriedumiem, tādējādi aizsargājot godīgumu un cilvēka cieņu
  • Uzticamība: AI sistēmām jāspēj darboties uzticami
  • Drošība un privātums: AI sistēmām ir jādarbojas droši un jāievēro lietotāju privātums.

Kā norādīja ASV Aizsardzības departaments (DoD) savā Mākslīgā intelekta izmantošanas ētikas principi un kā esmu padziļināti aprakstījis plkst saite šeit, šie ir viņu seši galvenie AI ētikas principi:

  • Atbildīgais: DoD darbinieki veiks atbilstošu spriedumu un rūpību, vienlaikus paliekot atbildīgi par AI iespēju izstrādi, izvietošanu un izmantošanu.
  • Taisnīgs: Departaments veiks apzinātus pasākumus, lai samazinātu neparedzētu AI iespēju novirzi.
  • Izsekojams: Departamenta mākslīgā intelekta iespējas tiks izstrādātas un izvietotas tā, lai attiecīgajam personālam būtu atbilstoša izpratne par tehnoloģijām, izstrādes procesiem un darbības metodēm, kas piemērojamas mākslīgā intelekta spējām, tostarp par pārredzamām un pārbaudāmām metodoloģijām, datu avotiem, kā arī projektēšanas procedūrām un dokumentāciju.
  • Reliable: Departamenta mākslīgā intelekta iespējām būs skaidri, precīzi definēti lietojumi, un šādu iespēju drošība, drošība un efektivitāte tiks pārbaudīta un garantēta noteiktajos lietojumos visā to dzīves ciklā.
  • Pārvaldāms: Departaments izstrādās un izstrādās mākslīgā intelekta iespējas, lai tās varētu izpildīt paredzētās funkcijas, vienlaikus spējot atklāt un izvairīties no neparedzētām sekām, kā arī atslēgt vai deaktivizēt izvietotās sistēmas, kas demonstrē neparedzētu uzvedību.

Esmu arī apspriedis dažādas AI ētikas principu kolektīvās analīzes, tostarp aptvēru pētnieku izstrādāto kopumu, kurā tika pārbaudīta un apkopota daudzu nacionālo un starptautisko AI ētikas principu būtība rakstā “The Global Landscape Of AI Ethics Guidelines” (publicēts). iekšā daba), un ka mans pārklājums pēta plkst saite šeit, kas noveda pie šī stūrakmens saraksta:

  • Caurspīdīgums
  • Taisnīgums un godīgums
  • Ne-ļaunprātība
  • atbildība
  • Privātums
  • Labums
  • Brīvība un autonomija
  • Uzticēties
  • Ilgtspējība
  • cieņa
  • Solidaritāte

Kā jūs varētu tieši nojaust, mēģināt noteikt šo principu pamatā esošo specifiku var būt ārkārtīgi grūti. Vēl jo vairāk, centieni pārvērst šos plašos principus par kaut ko pilnīgi taustāmu un pietiekami detalizētu, lai tos izmantotu AI sistēmu izstrādē, arī ir grūts rieksts. Kopumā ir viegli pamātīt ar roku par to, kas ir AI ētikas priekšraksti un kā tie vispārīgi jāievēro, savukārt AI kodēšanas situācija ir daudz sarežģītāka, ja tai ir jābūt īstai gumijai, kas saskaras ar ceļu.

AI ētikas principi ir jāizmanto AI izstrādātājiem, kā arī tiem, kas pārvalda AI izstrādes centienus, un pat tiem, kas galu galā veic AI sistēmu uzturēšanu un uzturēšanu. Visas ieinteresētās puses visā AI izstrādes un lietošanas dzīves ciklā tiek uzskatītas par ētiskā AI noteikto normu ievērošanu. Tas ir svarīgs akcents, jo parasti tiek pieņemts, ka “tikai kodētāji” vai tie, kas programmē AI, ir pakļauti AI ētikas jēdzieniem. Kā minēts iepriekš, ir nepieciešams ciemats, lai izstrādātu un ieviestu AI, un tam visam ciemam ir jābūt pieredzējušam un jāievēro AI ētikas priekšraksti.

Pārliecināsimies arī par mūsdienu mākslīgā intelekta būtību.

Mūsdienās nav AI, kas būtu jūtīgs. Mums šī nav. Mēs nezinām, vai jutīgais AI būs iespējams. Neviens nevar precīzi paredzēt, vai mēs sasniegsim jutīgu AI, kā arī to, vai jutīgs AI kaut kā brīnumaini spontāni radīsies skaitļošanas kognitīvās supernovas veidā (parasti saukta par singularitāti, skatiet manu pārklājumu vietnē saite šeit).

AI veids, uz kuru es koncentrējos, sastāv no nejūtošā AI, kas mums ir šodien. Ja mēs gribējām mežonīgi spekulēt par jūtīgs AI, šī diskusija varētu virzīties radikāli citā virzienā. Domājams AI būtu cilvēka kvalitātes. Jums jāņem vērā, ka jutīgais AI ir cilvēka kognitīvs ekvivalents. Vēl jo vairāk, tā kā daži uzskata, ka mums varētu būt superinteliģents AI, iespējams, ka šāds AI varētu būt gudrāks par cilvēkiem (manu superinteliģentā AI kā iespēju izpēti sk. pārklājums šeit).

Turēsim lietas piezemētākas un apsvērsim mūsdienu skaitļošanas nejūtīgo AI.

Saprotiet, ka mūsdienu mākslīgais intelekts nespēj “domāt” tādā pašā veidā kā cilvēka domāšana. Mijiedarbojoties ar Alexa vai Siri, sarunu spējas var šķist līdzīgas cilvēka spējām, taču patiesībā tās ir skaitļošanas iespējas un tām trūkst cilvēka izziņas. Jaunākajā AI laikmetā ir plaši izmantota mašīnmācīšanās (ML) un dziļā mācīšanās (DL), kas izmanto skaitļošanas modeļu saskaņošanu. Tas ir novedis pie AI sistēmām, kas izskatās pēc cilvēkiem līdzīgas tieksmes. Tikmēr mūsdienās nav neviena mākslīgā intelekta, kam būtu veselais saprāts un arī cilvēka spēcīgas domāšanas izziņas brīnums.

ML/DL ir skaitļošanas modeļu saskaņošanas veids. Parastā pieeja ir tāda, ka jūs apkopojat datus par lēmumu pieņemšanas uzdevumu. Jūs ievadāt datus ML/DL datoru modeļos. Šie modeļi cenšas atrast matemātiskos modeļus. Pēc šādu modeļu atrašanas, ja tādi tiek atrasti, AI sistēma izmantos šos modeļus, sastopoties ar jauniem datiem. Uzrādot jaunus datus, pašreizējā lēmuma pieņemšanai tiek piemēroti modeļi, kuru pamatā ir “vecie” vai vēsturiskie dati.

Es domāju, ka jūs varat uzminēt, kurp tas virzās. Ja cilvēki, kas ir pieņēmuši pieņemtus lēmumus, ir iekļāvuši nevēlamus aizspriedumus, pastāv iespēja, ka dati to atspoguļo smalki, bet nozīmīgi. Mašīnmācīšanās vai dziļās mācīšanās skaitļošanas modeļu saskaņošana vienkārši mēģinās attiecīgi matemātiski atdarināt datus. AI radītajā modelēšanā per se nešķiet veselais saprāts vai citi jūtīgi aspekti.

Turklāt AI izstrādātāji, iespējams, arī neapzinās, kas notiek. Arkāniskā matemātika ML/DL var apgrūtināt tagad slēpto aizspriedumu novēršanu. Jūs pamatoti cerat un gaidāt, ka AI izstrādātāji pārbaudīs potenciāli apraktos aizspriedumus, lai gan tas ir sarežģītāk, nekā varētu šķist. Pastāv liela iespēja, ka pat ar salīdzinoši plašu testēšanu ML/DL modeļu atbilstības modeļos joprojām būs novirzes.

Jūs varētu mazliet izmantot slaveno vai bēdīgi slaveno sakāmvārdu par atkritumu savākšanu. Lieta ir tāda, ka tas vairāk līdzinās aizspriedumiem, kas mānīgi tiek iepludināti, AI iegremdējot aizspriedumus. AI lēmumu pieņemšanas algoritms (ADM) aksiomātiski kļūst piekrauts ar nevienlīdzību.

Nav labi.

Tagad atgriezīsimies pie AI aizspriedumu meklēšanas tēmas.

Tiem no jums, kas apsver AI aizspriedumu devību medības, šeit ir manas ieteiktās septiņas galvenās darbības, kā vislabāk rīkoties.

1) Novērtē. Novērtējiet AI neobjektivitātes devību medību centienu piemērotību jūsu apstākļiem un jūsu AI sistēmām

2) Dizains. Izstrādājiet atbilstošu AI neobjektivitātes devību medību pieeju

3) Izpildīt. Īstenojiet un publicējiet savus AI aizspriedumus par devību medībām

4) Lauks. Norādiet AI aizspriedumu kompensācijas prasības un attiecīgi apstrādājiet

5) Noteikt. Labojiet vai pielāgojiet savu AI atbilstoši šīm atklātajām AI novirzēm

6) pielāgot. Pielāgojiet AI novirzes devību medības pēc vajadzības

7) Pārtraukt. Pārtrauciet AI aizspriedumu devību medības, kad tās vairs nav vajadzīgas

Iepriekš minēto darbību sērijā ņemiet vērā, ka es pieminēju, ka jūs, iespējams, vēlēsities labot vai pielāgot savu AI, pamatojoties uz pārliecību, ka jūsu AI sistēmā patiešām pastāv apgalvotā AI novirze. Tam ir liela jēga. Jūs gandrīz noteikti vēlaties nostiprināt visas konstatētās AI novirzes. Padomājiet par juridiskajām (un ētiskajām) sekām, ja jūs to nedarāt. Viena lieta ir apgalvot, ka jūs nezinājāt, ka AI neobjektivitāte pastāv, un tāpēc atļāvāt tai pastāvēt, savukārt ir daudz drosmīgāka informācija par to, ka esat informēts par AI novirzi un neko nedarījāt.

AI labojuma vai pielāgošanas raksturs un pakāpe, protams, ir atkarīga no tā, cik nozīmīgas bija AI novirzes un cik dziļi tās ir. Ja jums paveiksies, iespējams, nelielas AI izmaiņas novērsīs situāciju. Vēl viens potenciāls ir tāds, ka jums, iespējams, vajadzēs pilnībā pārrakstīt AI. ML/DL tipa AI gadījumā var būt nepieciešams atgriezties pie rasēšanas dēļa un sākt no jauna ar pilnīgi jaunu datu kopu un iztīrītu ML/DL modeli. Esmu apspriedis AI izzušanu vai AI iznīcināšanu kā potenciālu juridisku līdzekli pret nepatīkamu AI, sk. saite šeit.

Viens jautājums, kas jāpārdomā, ir, vai vēlaties, lai devību mednieki darītu vairāk, nekā tikai identificētu AI aizspriedumus. Piemēram, jūs varat palielināt dāvinājumu, norādot, ka arī ierosinātie labojumi ir apsveicami. AI novirze dibināt galvojumu mednieks var saņemt vienu norādīto atlīdzību vai balvu. Ja arī galvojumu mednieks var piedāvāt dzīvotspējīgu noteikts AI aizspriedumiem, viņiem var tikt piešķirta papildu atlīdzība.

Daži apgalvo, ka tas ir pārāk tāls tilts. Viņi saka, ka AI neobjektivitātes devējiem ir jākoncentrējas tikai uz AI aizspriedumu atrašanu. Jūs radīsit virkni nevēlamu nelabvēlīgu seku, aicinot viņus arī ieteikt labojumus. Saglabājiet lietas vienkārši. Mērķis ir iegūt pēc iespējas vairāk uzmanības, lai atklātu AI novirzes, lai jūs varētu izlemt, ko darīt tālāk. Nedubļojiet ūdeņus.

Sarežģīts aspekts, kas ir jānoskaidro, ir saistīts ar atlīdzības vai balvas lielumu tiem devību medniekiem, kuri patiesi atklāj AI novirzes. Jūs vēlaties, lai atlīdzība būtu demonstratīva. Bez pietiekami lielas atlīdzības jūs nesaņemsit daudz devību mednieku, vai arī viņi īpaši nevēlēsies meklēt AI novirzes jūsu AI sistēmās. Tā vietā viņi varētu koncentrēties uz citiem AI neobjektivitātes centieniem.

Turklāt, kā minēts, jūs vēlaties mēģināt apspiest devību mednieku vēlmi pārvērst savus AI novirzes atklājumus citos zelta veidos. Ja atlīdzība šķiet niecīga, tas var mudināt galvojumu medniekus meklēt citus lielākus ieguvumus. Viņi varētu pret jums vērsties pret izspiedējvīrusu. Viņi varētu paziņot, ka viņiem ir sūdīgs AI novirzes, par kuru konkurents labprāt uzzinātu, un ko varētu izmantot pret jūsu uzņēmumu, norādot, ka jūsu AI neobjektivitāte pastāv. Tādējādi viņi pārdod atklāto AI novirzi augstākajam solītājam. Un tā tālāk.

Tiek pieņemts, ka, ja jūs iestatāt atlīdzību ārkārtīgi augstā diapazonā, jūs arī prasāt iespējamās problēmas. Tas varētu piesaistīt visu veidu prātīgus devību medniekus. Viņi savukārt varētu pārpludināt sociālos medijus ar miglainiem apgalvojumiem, ka viņi ir atklājuši daudzus AI aizspriedumus, darot to savas pašreklāmas nolūkos un faktiski neizpaužot nekādus AI aizspriedumus. Savā ziņā jūsu paaugstinātā atlīdzība netīšām izgaismo jūsu mākslīgo intelektu un izraisa virkni nekoptu kožu, kas attiecīgi tiek kaitīgi piesaistīti kvēlojošajam gaismas staram.

Vēl viens apsvērums ir saistīts ar piekļuvi jūsu AI.

Lai nodrošinātu mākslīgā intelekta medību iespēju, galvojumu medniekiem ir pietiekami jāiegūst piekļuve jūsu AI. Viņiem nebūs daudz veiksmes atrast AI aizspriedumus, ja viņi būs pilnībā izslēgti. Taču jūs nevēlaties atteikties no kiberdrošības aizsardzības, jo tas var pilnībā apdraudēt jūsu AI sistēmu.

Varat mēģināt likt galvu medniekiem parakstīt dažādas juridiski saistošas ​​deklarācijas un pēc tam nodrošināt viņiem nepieciešamo piekļuvi. Dažiem devību medniekiem šāda pieeja nepatiks. Viņu viedoklis ir tāds, ka viņi darīs tikai to, ko atļauj jebkurš publiski pieejams un atvērts ceļš. Viņi it kā ir brīvi gudrinieki, un viņiem nepatīk, ja viņi tiek apsegloti. Ja viņi liks viņiem parakstīties uz iebiedējošiem juridiskiem dokumentiem, daudzi no viņiem liks izvairīties no AI aizspriedumu meklēšanas jūsu AI. Vai arī viņi var sajūsmināties par jūsu juridisko cimdu un nolemt, ka redzēs, ko viņi var atrast, izmantojot publiskus līdzekļus, darot to ar, iespējams, strauju vēlmi parādīt, cik neaizsargāts jūs patiesībā esat.

Man ir vēl viens leņķis, kas var likt jūsu galvai griezties.

AI lietpratīgs atlīdzību mednieks var nolemt izstrādāt AI sistēmu, kas varētu rūpīgi pārbaudīt jūsu AI un, iespējams, atklāt AI novirzes jūsu AI. Šis ir instrumentu ražotājs, kas izvēlas izgatavot instrumentu darba veikšanai, nevis pats veikt roku darbu. Tā vietā, lai cītīgi pārbaudītu jūsu AI, AI pārzinošais devību mednieks pavada laiku, izstrādājot AI rīku, kas veic to pašu. Pēc tam viņi izmanto AI rīku jūsu AI. Skaistums ir arī tas, ka viņi, iespējams, var atkārtoti izmantot AI rīku jebkuram citam, kas arī piedāvā devību medības savā attiecīgajā AI.

Es zinu, ko jūs droši vien domājat. Ja var izveidot AI rīku, lai pārbaudītu AI novirzes, AI ražotājam, kurš tiek rūpīgi pārbaudīts attiecībā uz AI novirzēm, vajadzētu vai nu izveidot šādu AI rīku, vai arī iegādāties tādu savam lietošanai. Teorētiski viņiem nav jācīnās ar visu devēju mednieku karnevālu. Vienkārši izmantojiet AI, lai atrastu viņu AI novirzes.

Jā, tas ir kaut kas tāds, kas, iespējams, pakāpeniski parādīsies. Tikmēr šo centienu galvenais balsts, visticamāk, būs mākslīgā intelekta izstrādātāji, kas veic devību medības. Viņi varētu izmantot dažādus rīkus, lai palīdzētu saviem centieniem, taču maz ticams, ka tuvākajā laikā viņi vienkārši bez prāta iestatīs mākslīgā intelekta rīku uz automātisku darbību un nosnaus tā, lai rīks veiktu visu AI novirzes meklēšanu viņu vietā.

Mēs vēl neesam tur.

Šajā svarīgās diskusijas posmā es varu derēt, ka jūs vēlaties dažus ilustratīvus piemērus, kas varētu parādīt šo tēmu. Ir īpašs un noteikti populārs piemēru kopums, kas man ir tuvs. Redziet, manā kā MI ekspertam, tostarp ētiskajām un juridiskajām sekām, man bieži tiek lūgts identificēt reālistiskus piemērus, kas parāda AI ētikas dilemmas, lai varētu vieglāk uztvert tēmas nedaudz teorētisko raksturu. Viena no visspilgtākajām jomām, kas spilgti atspoguļo šo ētisko AI problēmu, ir uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās. Tas kalpos kā ērts lietošanas gadījums vai paraugs plašai diskusijai par šo tēmu.

Šeit ir viens ievērības cienīgs jautājums, par kuru ir vērts padomāt: Vai uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās kaut ko izgaismo par AI neobjektivitātes devību medībām, un, ja tā, ko tas parāda?

Ļaujiet man kādu brīdi izpakot jautājumu.

Pirmkārt, ņemiet vērā, ka īstā pašbraucošā automašīnā nav cilvēka vadītāja. Ņemiet vērā, ka patiesas pašbraucošas automašīnas tiek vadītas, izmantojot AI braukšanas sistēmu. Nav nepieciešams cilvēks pie stūres, kā arī nav paredzēts, ka cilvēks varētu vadīt transportlīdzekli. Manu plašo un pastāvīgo informāciju par autonomajiem transportlīdzekļiem (AV) un īpaši pašbraucošām automašīnām sk. saite šeit.

Es vēlētos vēl vairāk precizēt, kas ir domāts, runājot par patiesām pašbraucošām automašīnām.

Izpratne par pašbraucošo automašīnu līmeņiem

Paskaidrosim, ka patiesas pašbraucošas automašīnas ir tās, kurās mākslīgais intelekts vada automašīnu pilnībā un braukšanas uzdevuma laikā netiek sniegta cilvēka palīdzība.

Šie bezvadītāja transportlīdzekļi tiek uzskatīti par 4. un 5. līmeni (skatiet manu skaidrojumu vietnē šī saite šeit), savukārt automašīna, kuras vadītājam ir jādalās kopā ar braukšanas piepūli, parasti tiek uzskatīta par 2. vai 3. līmeni. Automašīnas, kas kopīgi veic vadīšanas uzdevumu, ir aprakstītas kā daļēji autonomas, un tās parasti satur dažādas automatizēti papildinājumi, kas tiek saukti par ADAADA
S (Advanced Driver-Assistance Systems).

Pagaidām vēl nav īstas pašbraucošas automašīnas 5. līmenī, un mēs vēl pat nezinām, vai to būs iespējams sasniegt, kā arī to, cik ilgs laiks būs nepieciešams, lai līdz tam nokļūtu.

Tikmēr 4. līmeņa centieni pakāpeniski mēģina iegūt zināmu saķeri, veicot ļoti šauru un selektīvu koplietošanas ceļu izmēģinājumus, lai gan pastāv strīdi par to, vai šī pārbaude ir jāatļauj per se (mēs visi esam dzīvības vai nāves jūrascūciņas eksperimentā kas notiek uz mūsu lielceļiem un blakusceļiem, daži apgalvo, skatiet manu pārklājumu vietnē šī saite šeit).

Tā kā pusautomātiskajām automašīnām ir nepieciešams autovadītājs, kas izmanto cilvēku, šāda veida automašīnas pieņemšana ievērojami neatšķirsies no parastā transporta līdzekļa vadīšanas, tāpēc per se nav daudz jaunu, lai par tām runātu par šo tēmu (lai gan, kā redzēsit pēc brīža nākamie punkti parasti ir piemērojami).

Pusautonomām automašīnām ir svarīgi, lai sabiedrība tiktu brīdināta par satraucošu aspektu, kas rodas pēdējā laikā, proti, ka, neskatoties uz tiem autovadītājiem, kas turpina publicēt video, kā viņi aizmiguši pie 2. vai 3. līmeņa automašīnas stūres , mums visiem jāizvairās no maldināšanas, uzskatot, ka vadītājs, vadot daļēji autonomu automašīnu, var novērst uzmanību no braukšanas uzdevuma.

Jūs esat atbildīgā persona par transportlīdzekļa vadīšanas darbībām neatkarīgi no tā, cik daudz automatizācijas var iemest 2. vai 3. līmenī.

Pašbraucošas automašīnas un mākslīgā intelekta neobjektivitātes devību medības

4. un 5. līmeņa īstiem pašpiedziņas transportlīdzekļiem braukšanas uzdevumā nebūs iesaistīts autovadītājs.

Visi pasažieri būs pasažieri.

AI veic braukšanu.

Viens aspekts, kas nekavējoties jāapspriež, ietver faktu, ka AI, kas iesaistīts mūsdienu AI braukšanas sistēmās, nav jūtīgs. Citiem vārdiem sakot, AI kopumā ir datorizētas programmēšanas un algoritmu kolektīvs, un, protams, tas nespēj spriest tāpat kā cilvēki.

Kāpēc šis papildu uzsvars tiek likts uz to, ka AI nav jūtīgs?

Tā kā es gribu pasvītrot, ka, apspriežot AI braukšanas sistēmas lomu, es nepiešķiru AI cilvēka īpašības. Lūdzu, ņemiet vērā, ka mūsdienās pastāv un ir bīstama tendence antropomorfizēt AI. Būtībā cilvēki piešķir mūsdienu cilvēka intelektu mūsdienu AI, neskatoties uz nenoliedzamu un neapstrīdamu faktu, ka šāda AI vēl nav.

Izmantojot šo precizējumu, jūs varat iedomāties, ka AI braukšanas sistēma dabiski kaut kā “nezinās” par braukšanas aspektiem. Braukšana un viss, kas ar to saistīts, būs jāprogrammē kā daļa no pašpiedziņas automašīnas aparatūras un programmatūras.

Iegremdēsimies neskaitāmos aspektos, kas nāk par šo tēmu.

Pirmkārt, ir svarīgi saprast, ka ne visas AI pašbraucošās automašīnas ir vienādas. Katrs autoražotājs un pašpiedziņas tehnoloģiju uzņēmums izmanto savu pieeju, lai izstrādātu pašbraucošas automašīnas. Tādējādi ir grūti sniegt visaptverošus paziņojumus par to, ko AI vadīšanas sistēmas darīs vai nedarīs.

Turklāt ikreiz, kad tiek apgalvots, ka AI vadīšanas sistēma nedara kādu konkrētu lietu, to vēlāk var apsteigt izstrādātāji, kuri faktiski programmē datoru, lai to izdarītu. Soli pa solim AI braukšanas sistēmas tiek pakāpeniski uzlabotas un paplašinātas. Esošais ierobežojums šodien, iespējams, vairs nepastāvēs turpmākajā sistēmas iterācijā vai versijā.

Es ceru, ka tas sniedz pietiekamu atrunu, kas ir pamatā tam, ko es gatavojos stāstīt.

Savās slejās es jau plaši apspriedu uz kļūdām orientētu devību mednieku izmantošanu autonomo transportlīdzekļu un pašbraucošo automašīnu jomā. Šāda pieeja patiešām ir notikusi šajā nišā. Pastāv parastās debates par to, vai tā ir laba ideja vai nē. Centieni parasti ir bijuši ierobežoti, bieži tie ir bijuši samērā klusi.

Līdzīgs diskurss var rasties, ja uzmanība tiek pievērsta mākslīgā intelekta aizspriedumu meklēšanai, nevis sistēmas kļūdu meklēšanai kā tādai. Daži ierosina, ka tas ir nožēlojams, ja jūs to darāt, bet, ja jums nav mīkla.

Lūk, kāpēc.

Pirmkārt, lai būtu skaidrs, ir daudz veidu, kā autonomi transportlīdzekļi un pašbraucošas automašīnas tiks pakļauti AI aizspriedumiem. Skatiet manu informāciju vietnē saite šeit un saite šeit, lai nosauktu tikai dažus. Šķiet, ka automašīnu ražotāji un pašbraucošo automašīnu uzņēmumi mēģina novērst šo AI aizspriedumu parādīšanos viņu AI sistēmās. Juridiskā un ētiskā vētra pret šādiem uzņēmumiem neapšaubāmi būs intensīva.

Vai AI aizspriedumu devību medību izmantošana ir piemērota pieeja šajā konkrētajā kontekstā?

Viena atbilde ir tāda, ka jā, tas būs ērti un nodrošinās daudz “bezmaksas” jaunu acu komplektu, lai mēģinātu uztvert jebkādus iegultos mākslīgā intelekta novirzes no AI pašbraucošas automašīnas vai tamlīdzīgi. Lielākā daļa mākslīgā intelekta izstrādātāju, kas būvē pašbraucošas automašīnas, ir aizņemti ar mākslīgā intelekta izveidi, kas var droši vadīt automašīnu no punkta A uz punktu B. Viņi ir aizņemti ar šo pamatspēju, un viņiem nav ne laika, ne uzmanības AI novirzēm, kas varētu būt kaut kur. viņu AI.

Otra atbilde ir tāda, ka nē, ir stingri jāizvairās no devību medībām autonomiem transportlīdzekļiem un pašbraucošām automašīnām neatkarīgi no tā, vai tās ir kļūdas vai AI aizspriedumi. Arguments ir tāds, ka šiem transportlīdzekļiem un to mākslīgajam intelektam ir dzīvības vai nāves kalibrs. Jebkāda veida nejaukšanās ar AI var kaut kā sabojāt AI un ietekmēt AI vadīšanas sistēmas darbību.

Pretarguments šim pēdējam ir tas, ka galvojumu mednieki nevar mainīt AI, ko viņi pārbauda. Tādējādi nepastāv briesmas, ka viņi varētu sajaukties ar AI un izraisīt AI šajā kontekstā, lai pēkšņi kļūtu par traku AI vadīšanas sistēmu. Galvu medniekiem ir tikai lasīšanas piekļuve. Ļaut viņiem iet tālāk būtu stulbi un milzīga kļūda.

Pretarguments šim pretargumentam ir tāds, ka, ļaujot un mudinot devību medniekus pārbaudīt jūsu AI, viss kļūst sarežģīts. Šie devību mednieki varētu izdomāt veidus, kā izmantot visas atrastās kļūdas vai aizspriedumus. Šie varoņdarbi savukārt var būt viltīgiem mērķiem. Labāk, ja tā varētu teikt, neaicinātu savās mājās “zagļus”. Kad viņi būs izņēmuši locītavu, jūs galu galā būsiet daudz problēmu.

Tiem, kuru mākslīgā intelekta sistēmas ir mazākas par dzīvības vai nāves lielumu, tiek uzskatīts, ka neveiksmīga devību medību sekas ir daudz mazāk riskantas. Varbūt tā. No otras puses, ja uzņēmums ir ielicis savus līdzekļus mākslīgā intelekta sistēmā, kuru galvojumu medniekiem izdodas uzurpēt, varat pieņemt, ka reputācijas un citi iespējamie zaudējumi joprojām kaitēs.

Nav bezmaksas pusdienu, ja runa ir par AI neobjektivitātes devību medībām.

Pagaidām īss noslēguma piezīme.

Kad Veco Rietumu laikā tika meklēts bēdīgi slavenais likumpārkāpējs Džesijs Džeimss, tika izdrukāts plakāts “Wanted”, kurā par viņa notveršanu tika piedāvāta balva 5,000 $ (ar uzrakstu “miris vai dzīvs”). Tajā laikā tā bija diezgan liela naudas summa. Viens no viņa paša bandas locekļiem izvēlējās nošaut Džesiju un saņemt atlīdzību. Es domāju, ka tas parāda, cik efektīva var būt balva.

Vai AI neobjektivitātes devību mednieku izmantošana būs laba lieta, vai tā būs slikta lieta?

Ja izvēlaties uzsākt AI neobjektivitātes devību mednieku centienus, es ieteiktu turēt acis plaši atvērtas un vienmēr skatīties pār plecu. Tas ir saprātīgi jums un jūsu AI. Jūs nekad nezināt, kas var notikt, tostarp to, ka viltīgs devību mednieks kaut kādā veidā slepus ievieto AI novirzi jūsu AI un kliedz pasaulei, ka ir atklājis negodīgu AI novirzi jūsu AI. Iespējams, to darot nekaunīgā un pārspīlētajā mēģinājumā pēc balvas, kā arī pasludinot sevi par varoni, kas būtībā ieguva slavēto Džesiju Džeimsu.

Padomājot par to, saprātīgam mākslīgajam intelektam, iespējams, nepatiks šī ideja par satraucošu mirušo vai dzīvu nodrošinājumu, ko varētu niecīgi spekulēt.

Avots: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- ētiski ļaunas-pilnīgi autonomas sistēmas-ir-apdomīgas vai veltīgas/