AI ētiku traucē jaunākais Ķīnas izstrādātais AI partijas lojalitātes prāta lasīšanas sejas atpazīšanas apliecinājums, kas varētu paredzēt nomācošas autonomās sistēmas

Vai tu esi lojāls?

Teorētiski varētu būt iespējams pārbaudīt jūsu atklātos darbus un noskaidrot, vai jūsu rīcība liecina par lojalitāti.

Pieņemsim, ka tā vietā tika mēģināts lasīt jūsu domas un tikmēr skenēt jūsu seju, lai noteiktu jūsu lojalitātes koeficientu. Tas ir šausmīgi uzmācīgi; jūs varētu viegli nosodīt. Izklausās pēc vienas no tām trakajām zinātniskās fantastikas filmām, kas paredz nākotnes distopisku sabiedrību.

Par laimi, tu sev klusībā čuksti, mums šodien nekā tāda nav.

Ak, turiet savus zirgus.

Ziņu virsraksti nesen kliedz, ka pētnieciskajā dokumentā, kas 1. gada 2022. jūlijā tika publicēts tiešsaistē Ķīnā, tika attēlots pētījums, kurā it kā tika novērtēti cilvēku smadzeņu viļņi un viņu sejas izteiksmes, lai noteiktu, vai viņi ir lojāli Ķīnas komunistiskajai partijai (ĶKP). . Tātad, lūk, nākotne kļūst arvien tuvāka un tuvāka, vismaz attiecībā uz distopiskās sabiedrības sasniegšanu, par kuru mēs baidījāmies, ka kādreiz varētu rasties.

Pētījums ātri pazuda no tā tiešsaistē ievietotās saites.

Jādomā, ka pietika ar straujo nicinājumu, kas ātri pārņēma internetu, lai papīrs tiktu noņemts. Vai varbūt pētnieki vienkārši vēlas veikt dažas formulējuma izmaiņas un citus nekaitīgus labojumus, lai veiktu atkārtotu publicēšanu, tiklīdz viņiem ir bijusi rūpīgāka iespēja pārliecināties, ka i ir punktēti un t ir pārsvītroti. Mums būs jātur acis vaļā, lai redzētu, vai papīrs iegūst otru dzīvi.

Es turpināšu padziļināti iedziļināties tajā, ko mēs zinām par pētniecisko pētījumu, un mēģināšu savienot punktus par to, kā šāda veida ar AI saistītais darbs ir nozīmīgs mums visiem, pārsniedzot šo iespēju. kas attiecas tikai uz vienu konkrētu valsti. Mans pārklājums būs nedaudz plašāks nekā citos nesenajos ziņojumos par šo vērtīgo vienumu, tāpēc, lūdzu, esiet ar mani.

Es arī uzsvēršu to, ka ir daudz svarīgu mākslīgā intelekta ētikas stundu, kuras mēs varam iegūt no iespējamā dokumenta. Manu pastāvīgo un plašo AI ētikas un ētikas AI atspoguļojumu skatiet saite šeit un saite šeit, tikai nosaukt dažus.

Lūk, kas līdz šim tika minēts par pētījumu.

Acīmredzot daži “brīvprātīgie” tika savervēti, lai piedalītos eksperimentā par ĶKP uztveri. Nav zināms, vai viņi bija labprātīgi brīvprātīgie vai vairāk līdzinās brīvprātīgajiem, kas ir pakļauti vai varbūt vadīti. Diskusijas labad mēs pieņemsim, ka viņi bija piekrituši būt par pētījuma priekšmetu.

Es runāju par to, lai tas nebūtu vienkārši stulbs. Ikreiz, kad tiek veikts eksperiments, iesaistot cilvēkus, pastāv virkne vispārpieņemtu metožu, kas attiecas uz šādu subjektu piesaisti un iesaistīšanu pētniecības darbā. Tas daļēji izriet no iepriekšējiem pētījumiem, kas bieži vien mānīja vai piespieda cilvēkus iesaistīties eksperimentā, dažkārt izraisot nelabvēlīgas psiholoģiskas sekas vai pat fizisku kaitējumu šiem dalībniekiem. Zinātniskā aprinda ir centusies spēcīgi ierobežot šāda veida mānīgus pētījumus un pieprasa, lai tiem, kurus vēlas iekļaut ar cilvēkiem saistītos pētījumos, tiktu sniegta visa veida informācija un brīdinājumi.

Skaidrības labad jāsaka, ka ne visi ievēro šādas piesardzīgas un apzinīgas vadlīnijas.

Turpinot, tika ziņots, ka bija 43 subjekti, un viņi esot Ķīnas Komunistiskās partijas biedri. Ņemiet vērā, ka subjektu atlase eksperimentam ir ļoti svarīga eksperimentam, un tā ir jāņem vērā arī attiecībā uz jebkādiem secinājumiem, ko jūs varētu mēģināt izdarīt pēc tam par eksperimenta rezultātiem.

Pieņemsim, ka es vēlos veikt eksperimentu par to, kā cilvēki uztver slavēto Zvaigžņu karu seriālu. Ja es iepriekš izvēlos subjektus, kuriem visiem ļoti riebjas Zvaigžņu kari (kā tādi cilvēki var pastāvēt?), un parādīšu viņiem Zvaigžņu karu videoklipus, iespējams, ka viņi teiks, ka viņiem joprojām nepatīk Zvaigžņu kari. Pamatojoties uz šo pseidozinātnisko eksperimentu, iespējams, es viltīgi apgalvoju, ka cilvēki kopumā patiešām ienīst Zvaigžņu karus, kas tika “pierādīts” manā “rūpīgi” sagatavotajā pētniecības vidē.

Jūs, iespējams, nezināt, ka es it kā biju izvilinājis ruletes ratu, iepriekš atlasot priekšmetus, kas, pēc manām domām, radīs manus slēpti vēlamos rezultātus. Protams, ja es apzināti tā vietā būtu savervējis cilvēkus, kuri mīlēja Zvaigžņu karus un bija dedzīgi fani, pastāv iespēja, ka viņi būtu sajūsmā par šo Zvaigžņu karu klipu skatīšanos. Atkal visus secinājumus par to, kā cilvēki kopumā reaģē uz Zvaigžņu kariem, rūdīs iepriekš atlasītais priekšmetu kopums, kas izvēlēts darbam.

Uz ĶKP vērstajā pētījumā subjekti, šķiet, sēdēja pie kioskam līdzīga video displeja un lasīja dažādus rakstus par ĶKP politiku un sasniegumiem. Iespējams, ka šī ir uzskatāmā “eksperimentālā apstrāde”, kurai subjekti tiek pakļauti. Plānojot eksperimentu, jūs parasti nākat klajā ar eksperimentālu faktoru vai aspektu, kuru vēlaties redzēt, vai tas ietekmē dalībniekus.

Acīmredzot tika pētīts izpētes jautājums, vai šo materiālu pārskatīšanas darbībai būtu kāda ietekme uz subjektiem, palielinoties, samazinoties vai neitrāliem iespaidiem par viņu turpmākajiem iespaidiem par ĶKP.

Klasiskā nulles hipotēzē jūs varētu organizēt šādu pētījumu, lai norādītu, ka patērētie materiāli neietekmē turpmākos subjektu paustos iespaidus. Kad esat salīdzinājis viņu viedokļus par CCP pirms un pēc, jūs statistiski mēģinātu noskaidrot, vai ir konstatētas statistiski nozīmīgas izmaiņas viņu seansos.

Varētu būt, ka pirms un pēc statistiski neatšķiras, tāpēc var pamatoti provizoriski secināt, ka šim konkrētajam pētījumam parādītie materiāli (eksperimentālā apstrāde) iespaidos nešķiet mainījušies. No otras puses, ja pastāvētu statistiski pamatota atšķirība, jūs pārbaudītu, vai pēc tam ir lielāks nekā iepriekšējais, ļaujot jums rūpīgi domāt, ka materiāli uzlaboja iespaidus (un, monētas otrā pusē, ja pēc tam bija mazāks nekā iepriekš, tas varētu nozīmēt, ka materiāli mazināja vai pazemināja iespaidus).

Ir daudz nagging vaļīgu galu, kas būtu jārisina šādā pētījumā.

Piemēram, mēs parasti vēlamies izveidot tā saukto kontroles grupu, ko varam salīdzināt ar tām, kuras saņem eksperimentālo ārstēšanu. Lūk, kāpēc. Pieņemsim, ka sēdēšana pie kioska, lai lasītu materiālus, bija patiesais pamats iespaidu maiņai. Varētu būt, ka patērēto materiālu raksturs ir aptuveni nenozīmīgs iespaida ietekmei. Tikai sēžot un lasot jebko, piemēram, jaunākos stāstus par kaķiem, kas dara smieklīgas lietas, vien var palīdzēt. Tāpēc mēs varam vienoties, lai daži priekšmeti būtu mūsu kontroles grupā, kas ir pakļauti citam lasāmam materiālam, kas nav CCP politikas un sasniegumu materiāli.

Mēs nezinām, vai tas tika darīts šajā gadījumā (šķiet, ka neviens vēl nav pieminējis šo aspektu).

Es saprotu, ka jūs tagad esat satraukts par pētījuma daļu, kas ir saistīta ar plašsaziņas līdzekļiem. Mēs ātri pāriesim uz šo daļu.

Kā mēs varam noteikt, vai šī eksperimenta subjekti reaģēja vai mainīja savus iespaidus, lasot parādītos materiālus?

Ierasts līdzeklis būtu pajautāt viņiem.

Jūs, iespējams, būtu iepriekš aizpildījis anketu, kurā viņiem tiek uzdots jautājums par viņu iespaidiem par ĶKP. Pēc tam pēc eksperimentālās apstrādes, tāpat kā izstādīto materiālu lasīšanas laikā, mēs varētu aizpildīt citu anketu. Pēc tam var salīdzināt subjektu sniegtās atbildes pirms un pēc. Ja mēs izmantotu arī kontroles grupu, mēs pieņemtu, ka kontroles grupas atbildes būtiski nemainītos no iepriekšējās uz pēc (uzskatot, ka stāstu skatīšanās par kaķu ņirgāšanos nedrīkstētu ietekmēt viņu CCP iespaidus).

Šī darbība, jautājot subjektiem viņu iespaidus, ne vienmēr ir tik vienkārša, kā varētu šķist.

Pieņemsim, ka eksperimentā iesaistītajiem subjektiem rodas sajūta vai vispārēja novirze, ka jūs vēlaties, lai viņi reaģētu uz eksperimentālo ārstēšanu noteiktā veidā. Tādā gadījumā viņi var apzināti pārspīlēt savas reakcijas eksperimentālās ievadīšanas beigās. Jūs noteikti esat redzējuši to notiekam. Ja es veicu garšas pārbaudi jaunam sodam, kas tiek laists tirgū, es varētu rīkoties tā, it kā man ļoti garšotu soda, cerot, ka sodas ražotājs varētu tikt iekļauts reklāmā un iegūt manas bagātīgi pelnītās piecpadsmit minūtes slavas. .

Būtība ir tāda, ka tikai jautāt cilvēkiem viņu viedokli nav drošs līdzeklis, lai novērtētu izmaiņas. Tā ir viena pieeja. Varētu un bieži tiek izmantotas arī citas pieejas.

Kā šis konkrētais pētījums izvēlējās novērtēt subjektu reakcijas?

Acīmredzot tika izmantotas vismaz divas metodes. Viena no metodēm ietvēra sejas skenēšanu un uz AI balstītas sejas atpazīšanas programmatūras izmantošanu, lai novērtētu subjektu reakcijas. Tiek ziņots, ka otra metode bija sava veida smadzeņu viļņu skenēšana. Vēl nav ziņots par to, kāda veida smadzeņu viļņu skenēšanas ierīces tika izmantotas, kā arī par to, kāda veida smadzeņu viļņu analīzes programmatūra tika izmantota uz AI.

Dažādi ziņojumi liecina, ka pētījumā par eksperimenta būtību teikts šādi: "No vienas puses, tas var spriest par to, kā partijas biedri ir pieņēmuši domu un politisko izglītību." Un pētījumā it kā arī tas minēts: "No otras puses, tas sniegs reālus datus domāšanai un politiskajai izglītošanai, lai to varētu uzlabot un bagātināt." Pētījums tika attiecināts uz to, ka tas tika veikts Ķīnas Hefei visaptverošā nacionālā zinātnes centra aizgādībā.

Plašsaziņas līdzekļu ziņojumi liecina, ka pētījums atsaucās uz apgalvojumu, ka sejas atpazīšanas skenēšana un smadzeņu viļņu skenēšana varēja palīdzēt noteikt, ka pēc iespaidi tika palielināti par ĶKP.

Es vēlētos atzīmēt, ka, nevarot tieši pārskatīt izmantotās sistēmas un rūpīgi izpētīt pētniecisko darbu, mēs nezinām, kā šīs uz AI balstītās sistēmas tika tieši izmantotas.

Iespējams, ka subjekti reaģēja uz eksperimentālo vidi, nevis reaģēja uz eksperimentālo ārstēšanu. Ikviens, kas piedalās pētījumā, sākumā varētu būt noraizējies. Tas var apgrūtināt centienus veikt smadzeņu viļņu skenēšanu vai sejas modeļu analīzi. Pastāv arī iespēja, ka viņi jutās motivēti izpatikt pētniekiem, izvēloties izdomāt pozitīvas domas pēc materiālu apskates, un teorētiski tas varētu atspoguļoties smadzeņu viļņu skenēšanas un sejas skenēšanas (varbūt, lai gan, lūdzu, ņemiet vērā, ka ir lieliska daudz kaislīgu strīdu par šādu apgalvojumu pamatotību, kā es īsi paskaidrošu), cerot sagrozīt rezultātus un parādīt, ka tie ir pozitīvi ietekmēti.

Twitter reakcija būtiski nosodīja, ka pats jēdziens par AI pilnvarotu smadzeņu viļņu skenēšanu un sejas atpazīšanu ir šausminošs un nežēlīgs akts. Tikai cilvēku briesmoņi izmantotu šāda veida ierīces, mums stāsta daži no šiem tvītiem.

Man jālūdz jūs apsēsties un sagatavoties kaut kam, kas varētu būt rupjš un šokējošs pārsteigums.

Pasaulē ir daudz pētnieku, kuri savos pētījumos izmanto tādas pašas tehnoloģijas. Šī noteikti nav pirmā reize, kad pētniecībā cilvēkiem tika izmantota smadzeņu viļņu skenēšanas iespēja. Šī noteikti nebija arī pirmā reize, kad sejas atpazīšana tika izmantota cilvēkiem eksperimentālos nolūkos. Pat virspusēja meklēšana tiešsaistē parādīs daudz un daudz eksperimentālu pētījumu visās valstīs un laboratorijās, kurās ir izmantotas šāda veida ierīces.

Tagad, ņemot vērā to, jūs nevarat pievērst īpašu uzmanību to izmantošanai, lai novērtētu lojalitāti pret ĶKP. Kad šādu AI izmanto valdības kontrolei, sarkanā līnija ir šķērsota, kā saka.

Tā ir acīmredzami atvēsinošā daļa no visa komplekta un kaboodle.

Daudzi pauž bažas par to, ka, ja valdības izvēlēsies izmantot smadzeņu viļņu skenēšanas tehnoloģiju un sejas atpazīšanu, lai pārliecinātos par lojalitāti attiecīgajiem režīmiem, mēs nonāksim distopiskā ievainojumu pasaulē. Kad jūs ejat pa publisku ielu, iespējams, ka ierīce, kas uzstādīta uz laternas staba, slepus noteiks jūsu lojalitātes koeficientu.

Var pieņemt, ka, ja jūsu seja neliek domāt, ka esat pietiekami lojāls, vai arī smadzeņu viļņu skenēšana liecina par to pašu, valdības ļaundari pēkšņi var piesteigties un satvert jūs. Satraucoši. Neprātīgi. Nedrīkst pieļaut.

Tas ir galvenais iemesls, kāpēc par šo ziņu ir izcēlies virsraksts, kas izraisa sašutumu un sašutumu.

Iedomājieties šo. Mēs, iespējams, izstrādāsim un pēc tam ieviesīsim datorizētas sistēmas, kas izmanto jaunāko AI, lai izlemtu, vai esam lojāli vai nē. Ja jūs mēģinātu nolīgt cilvēkus, kas sēdētu un darītu to pašu, jums būtu nepieciešams daudz cilvēku, un jums būtu loģistikas problēma, mēģinot viņus novietot, lai tie būtu redzami visiem. Uz AI balstītas sistēmas gadījumā viss, kas jums jādara, ir jāuzstāda elektroniskās ierīces uz laternu stabiem, ēku sāniem utt. Lojalitātes meklēšana var notikt 24 x 7, vienmēr un visās tik aprīkotās vietās. Pēc tam to var ievadīt masīvā datubāzē.

Mēs kļūstam par cilvēkiem, kas ir tikai zobrati kolosā, visu redzošā, visu vērojošā, sabiedrību nomācošā ekosistēmā. Redzošā acs nav tikai vērošana, ko mēs darām. Tas arī interpretē to, ko mūsu sejas apgalvo par mūsu lojalitāti valdībai. Arī mūsu prāti ir jāpārbauda līdzīga baisa iemesla dēļ.

Yikes!

No tā izriet arī sekundāras bažas, lai gan, iespējams, tās nav tik smagas, salīdzinot ar Lielā brāļa ietekmi, kā jau ieskicēts.

Apdomājiet šos divus aktuālos jautājumus:

  • Vai mēs varam droši apgalvot, ka smadzeņu viļņu skenēšana var apliecināt jūsu lojalitāti?
  • Vai mēs varam droši apgalvot, ka sejas atpazīšanas skenēšana var apliecināt jūsu lojalitāti?

Pagaidi, iespējams, ka tu kliedzi uz sirds.

Es apzinos un atzīstu, ka jums, iespējams, nerūp uzticamības aspekti paši par sevi. Tas, vai to var izdarīt uzticami, ir mazāk svarīgs nekā fakts, ka tas vispār tiek darīts. Nevienam nevajadzētu būt zem šādas kontroles. Aizmirstiet par to, vai tehnoloģija ir piemērota šim uzdevumam. Mums nevajadzētu uzņemties šo uzdevumu pašā sākumā.

Jebkurā gadījumā atbilde šobrīd ir pārliecinoša nē, proti, esošās AI sistēmas, kas veic jebkādu "smadzeņu viļņu skenēšanu" un sejas atpazīšanu, nav pietiekami spējīgas veikt šo lēcienu.

Iespējams, pēdējā laikā esat redzējis, ka daži sejas atpazīšanas veidotāji ir nedaudz atkāpušies no to sejas atpazīšanas sistēmu izmantošanas. Nākamajā slejas ierakstā es apspriedīšu nesenos centienus, piemēram, Microsoft, lai mēģinātu apturēt to cilvēku straumi, kuri izmanto Microsoft nodrošinātos sejas atpazīšanas rīkus nolūkos, kas ir daudz plašāki par to, ko šī tehnoloģija spēj darīt vai kam vajadzētu izmantot. . Jūs varētu interesēt mans iepriekšējais ieskats AI ētikas aizvainojumos, kas jau ir plaši reklamēti par sejas atpazīšanu, sk. saite šeit. Esmu apspriedis arī smadzeņu viļņu skenēšanas arēnu, skatiet manu diskusiju vietnē saite šeit.

Īsi sakot, pagaidām nav uzticamu vai saprātīgu līdzekļu, kas liktu domāt, ka smadzeņu viļņu skenēšana vai sejas atpazīšanas skenēšana varētu attēlot kāda lojalitāti. Pat šķietami pamata aspekti, piemēram, vai jūs varat ticami saistīt šos skenējumus ar to, vai kāds ir laimīgs vai bēdīgs, joprojām tiek karsti apspriesti. Mēģinājums palielināt priekšnoteikumu kaut kam tik amorfam un mainīgam kā lojalitāte ir pārāk tāls tilts.

Varu piebilst, ka daži dedzīgi tic, ka galu galā mēs tur nonāksim. Tāpēc es rūpīgi centos atzīmēt, ka mēs vēl neesam tur, nevis paziņoju, ka mēs nekad tur nenokļūsim. Nekad nav liels vārds. Ja grasāties mētāties ar to, jums ir jābūt pilnīgi pārliecinātam nekad jābūt iespējamam (paturot prātā, ka “nekad” aptver gadu desmitus no šī brīža, gadsimtus pēc šī brīža un tūkstošiem vai miljoniem gadu no šī brīža).

Daži ir reaģējuši uz ziņām par šo Ķīnas laboratorijas pētījumu kā indikatoru tam, cik bīstami pasaule virzās uz nepiemērotu un bīstamu AI izmantošanu. Es uz brīdi dalīšos ar jums ieskatu tajā, kas ir AI ētika. Tas palīdzēs jums skaidrāk saprast, kāpēc šķiet, ka šis konkrētais pētījums pārkāpj daudzus, ja ne gandrīz visus, vispārpieņemtos ētiskā AI priekšrakstus.

Ticiet vai nē, daži ir ierosinājuši, ka, iespējams, mēs veidojam kalnu no kurmju kalna saistībā ar šo konkrēto pētījumu.

Vai mēs esam?

Pretarguments ir tāds, ka kurmju kalns pietiekami drīz var kļūt par kalnu. Saskaņā ar sakāmvārdu priekšstatu par sniega piku, kas kļūst arvien lielāka un lielāka, ripot lejā no sniega kalna, mums ir jāpārtrauc sniega pikas sākšanās. Ja mēs pieļaujam šāda veida pētījumus, mēs ļaujam šai sniega pikai sākt savu ceļojumu. Izsakoties un izsaucot šādus pētījumus, iespējams, mēs varam novērst sniega pikas.

Viens ir skaidrs, mēs esam uz Pandoras lādes atvēršanas sliekšņa, kad runa ir par AI aspektiem, un paliek jautājums, vai mēs varam novērst lādes atvēršanu vai vismaz atrast kādus līdzekļus, lai apdomīgi tiktu galā ar visu, kas iznāk. reiz kaste ir izlaidusi savu velnišķo saturu.

Ja nekas cits, cerams, ka šāda veida plašsaziņas līdzekļu vētras izraisīs plašu diskusiju par to, kā mēs novērsīsim ar AI saistītus ļaunumus un novērsīsim daudzus AI izraisītus eksistenciālus riskus. Mums ir jāuzlabo mūsu sabiedrības izpratne par AI ētiku un ētiskajiem AI apsvērumiem.

Pirms ķerties pie gaļas un kartupeļiem par savvaļas un vilnas apsvērumiem, kas ir šo AI sistēmu pamatā, noteiksim dažus papildu pamatus par ļoti būtiskām tēmām. Mums ir īsi jāiedziļinās AI ētikā un jo īpaši mašīnmācīšanās (ML) un dziļās mācīšanās (DL) parādīšanās.

Jūs varētu neskaidri apzināties, ka mūsdienās viena no skaļākajām balsīm AI jomā un pat ārpus AI jomas ir aicinājums pēc lielākas ētiskā AI līdzības. Apskatīsim, ko nozīmē atsaukties uz AI ētiku un ētisko AI. Papildus tam mēs izpētīsim, ko es domāju, runājot par mašīnmācīšanos un padziļinātu mācīšanos.

Viens konkrēts mākslīgā intelekta ētikas segments vai daļa, kas ir saņēmusi lielu plašsaziņas līdzekļu uzmanību, ir mākslīgais intelekts, kas demonstrē nevēlamus aizspriedumus un nevienlīdzību. Jūs varētu zināt, ka tad, kad sākās jaunākā AI ēra, bija milzīgs entuziasma uzliesmojums par to, ko daži tagad sauc. AI uz labu. Diemžēl mēs sākām būt liecinieki šim uzliesmojumam AI For Bad. Piemēram, ir atklāts, ka dažādas uz AI balstītas sejas atpazīšanas sistēmas satur rasu un dzimuma aizspriedumus, par ko esmu runājis saite šeit.

Centieni cīnīties pret AI For Bad aktīvi norisinās. Turklāt skaļš juridisks Mēģinot savaldīt pārkāpumus, notiek arī būtisks grūdiens AI ētikas ievērošanai, lai izlabotu AI neģēlību. Domājams, ka mums ir jāpieņem un jāapstiprina galvenie ētiskie AI principi AI izstrādei un izmantošanai, tādējādi samazinot AI For Bad un vienlaikus sludinot un popularizējot vēlamo AI uz labu.

Saistībā ar to es iestājos par mēģinājumu izmantot AI kā daļu no AI problēmu risinājuma, cīnoties pret uguni ar uguni šādā domāšanas veidā. Piemēram, mēs varētu iegult ētiskos AI komponentus AI sistēmā, kas uzraudzīs, kā pārējais AI dara lietas, un tādējādi, iespējams, reāllaikā uztvers jebkādus diskriminējošus centienus. Skatiet manu diskusiju vietnē saite šeit. Mums varētu būt arī atsevišķa AI sistēma, kas darbojas kā AI ētikas monitora veids. AI sistēma kalpo kā pārraugs, lai izsekotu un noteiktu, kad cits AI nonāk neētiskajā bezdibenī (skatiet manu analīzi par šādām iespējām vietnē saite šeit).

Pēc brīža es dalīšos ar dažiem visaptverošiem principiem, kas ir AI ētikas pamatā. Šur tur ir daudz šāda veida sarakstu. Varētu teikt, ka vēl nav vienota universālas pievilcības un vienprātības saraksta. Tā ir nelaimīgā ziņa. Labā ziņa ir tā, ka vismaz ir viegli pieejami AI ētikas saraksti, un tie mēdz būt diezgan līdzīgi. Kopumā tas liek domāt, ka ar sava veida pamatotu konverģenci mēs atrodam ceļu uz vispārēju kopību tam, no kā sastāv AI ētika.

Pirmkārt, īsi apskatīsim dažus vispārējos ētiskā AI priekšrakstus, lai ilustrētu, kam vajadzētu būt ļoti svarīgam ikvienam, kas izstrādā, izmanto vai izmanto AI.

Piemēram, kā to norādījis Vatikāns Roma aicinājums uz AI ētiku un kā esmu padziļināti aprakstījis plkst saite šeit, šie ir viņu identificētie seši galvenie AI ētikas principi:

  • Pārredzamība: Principā AI sistēmām ir jābūt izskaidrojamām
  • Iekļaušana: Ir jāņem vērā visu cilvēku vajadzības, lai ikviens varētu gūt labumu un visiem indivīdiem varētu piedāvāt vislabākos iespējamos apstākļus, lai izpaustos un attīstītos.
  • Atbildība: Tiem, kas izstrādā un ievieš AI izmantošanu, ir jārīkojas atbildīgi un pārredzami
  • objektivitāte: Neveidojiet un nerīkojieties saskaņā ar aizspriedumiem, tādējādi aizsargājot godīgumu un cilvēka cieņu
  • Uzticamība: AI sistēmām jāspēj darboties uzticami
  • Drošība un privātums: AI sistēmām ir jādarbojas droši un jāievēro lietotāju privātums.

Kā norādīja ASV Aizsardzības departaments (DoD) savā Mākslīgā intelekta izmantošanas ētikas principi un kā esmu padziļināti aprakstījis plkst saite šeit, šie ir viņu seši galvenie AI ētikas principi:

  • Atbildīgais: DoD darbinieki veiks atbilstošu spriedumu un rūpību, vienlaikus paliekot atbildīgi par AI iespēju izstrādi, izvietošanu un izmantošanu.
  • Taisnīgs: Departaments veiks apzinātus pasākumus, lai samazinātu neparedzētu AI iespēju novirzi.
  • Izsekojams: Departamenta mākslīgā intelekta iespējas tiks izstrādātas un izvietotas tā, lai attiecīgajam personālam būtu atbilstoša izpratne par tehnoloģijām, izstrādes procesiem un darbības metodēm, kas piemērojamas mākslīgā intelekta spējām, tostarp par pārredzamām un pārbaudāmām metodoloģijām, datu avotiem, kā arī projektēšanas procedūrām un dokumentāciju.
  • Reliable: Departamenta mākslīgā intelekta iespējām būs skaidri, precīzi definēti lietojumi, un šādu iespēju drošība, drošība un efektivitāte tiks pārbaudīta un garantēta noteiktajos lietojumos visā to dzīves ciklā.
  • Pārvaldāms: Departaments izstrādās un izstrādās mākslīgā intelekta iespējas, lai tās varētu izpildīt paredzētās funkcijas, vienlaikus spējot atklāt un izvairīties no neparedzētām sekām, kā arī atslēgt vai deaktivizēt izvietotās sistēmas, kas demonstrē neparedzētu uzvedību.

Esmu arī apspriedis dažādas AI ētikas principu kolektīvās analīzes, tostarp aptvēru pētnieku izstrādāto kopumu, kurā tika pārbaudīta un apkopota daudzu nacionālo un starptautisko AI ētikas principu būtība rakstā “The Global Landscape Of AI Ethics Guidelines” (publicēts). iekšā daba), un ka mans pārklājums pēta plkst saite šeit, kas noveda pie šī stūrakmens saraksta:

  • Caurspīdīgums
  • Taisnīgums un godīgums
  • Ne-ļaunprātība
  • atbildība
  • Privātums
  • Labums
  • Brīvība un autonomija
  • Uzticēties
  • Ilgtspējība
  • cieņa
  • Solidaritāte

Kā jūs varētu tieši nojaust, mēģināt noteikt šo principu pamatā esošo specifiku var būt ārkārtīgi grūti. Vēl jo vairāk, centieni pārvērst šos plašos principus par kaut ko pilnīgi taustāmu un pietiekami detalizētu, lai tos izmantotu AI sistēmu izstrādē, arī ir grūts rieksts. Kopumā ir viegli pamātīt ar roku par to, kas ir AI ētikas priekšraksti un kā tie vispārīgi jāievēro, savukārt AI kodēšanas situācija ir daudz sarežģītāka, ja tai ir jābūt īstai gumijai, kas saskaras ar ceļu.

AI ētikas principi ir jāizmanto AI izstrādātājiem, kā arī tiem, kas pārvalda AI izstrādes centienus, un pat tiem, kas galu galā veic AI sistēmu uzturēšanu un uzturēšanu. Visas ieinteresētās puses visā AI izstrādes un lietošanas dzīves ciklā tiek uzskatītas par ētiskā AI noteikto normu ievērošanu. Tas ir svarīgs akcents, jo parasti tiek pieņemts, ka “tikai kodētāji” vai tie, kas programmē AI, ir pakļauti AI ētikas jēdzieniem. Kā minēts iepriekš, ir nepieciešams ciemats, lai izstrādātu un ieviestu AI, un tam visam ciemam ir jābūt pieredzējušam un jāievēro AI ētikas priekšraksti.

Pārliecināsimies arī par mūsdienu mākslīgā intelekta būtību.

Mūsdienās nav AI, kas būtu jūtīgs. Mums šī nav. Mēs nezinām, vai jutīgais AI būs iespējams. Neviens nevar precīzi paredzēt, vai mēs sasniegsim jutīgu AI, kā arī to, vai jutīgs AI kaut kā brīnumaini spontāni radīsies skaitļošanas kognitīvās supernovas veidā (parasti saukta par singularitāti, skatiet manu pārklājumu vietnē saite šeit).

AI veids, uz kuru es koncentrējos, sastāv no nejūtošā AI, kas mums ir šodien. Ja mēs gribējām mežonīgi spekulēt par jūtīgs AI, šī diskusija varētu virzīties radikāli citā virzienā. Domājams AI būtu cilvēka kvalitātes. Jums jāņem vērā, ka jutīgais AI ir cilvēka kognitīvs ekvivalents. Vēl jo vairāk, tā kā daži uzskata, ka mums varētu būt superinteliģents AI, iespējams, ka šāds AI varētu būt gudrāks par cilvēkiem (manu superinteliģentā AI kā iespēju izpēti sk. pārklājums šeit).

Turēsim lietas piezemētākas un apsvērsim mūsdienu skaitļošanas nejūtīgo AI.

Saprotiet, ka mūsdienu mākslīgais intelekts nespēj “domāt” tādā pašā veidā kā cilvēka domāšana. Mijiedarbojoties ar Alexa vai Siri, sarunu spējas var šķist līdzīgas cilvēka spējām, taču patiesībā tās ir skaitļošanas iespējas un tām trūkst cilvēka izziņas. Jaunākajā AI laikmetā ir plaši izmantota mašīnmācīšanās (ML) un dziļā mācīšanās (DL), kas izmanto skaitļošanas modeļu saskaņošanu. Tas ir novedis pie AI sistēmām, kas izskatās pēc cilvēkiem līdzīgas tieksmes. Tikmēr mūsdienās nav neviena mākslīgā intelekta, kam būtu veselais saprāts un arī cilvēka spēcīgas domāšanas izziņas brīnums.

ML/DL ir skaitļošanas modeļu saskaņošanas veids. Parastā pieeja ir tāda, ka jūs apkopojat datus par lēmumu pieņemšanas uzdevumu. Jūs ievadāt datus ML/DL datoru modeļos. Šie modeļi cenšas atrast matemātiskos modeļus. Pēc šādu modeļu atrašanas, ja tādi tiek atrasti, AI sistēma izmantos šos modeļus, sastopoties ar jauniem datiem. Uzrādot jaunus datus, pašreizējā lēmuma pieņemšanai tiek piemēroti modeļi, kuru pamatā ir “vecie” vai vēsturiskie dati.

Es domāju, ka jūs varat uzminēt, kurp tas virzās. Ja cilvēki, kas ir pieņēmuši pieņemtus lēmumus, ir iekļāvuši nevēlamus aizspriedumus, pastāv iespēja, ka dati to atspoguļo smalki, bet nozīmīgi. Mašīnmācīšanās vai dziļās mācīšanās skaitļošanas modeļu saskaņošana vienkārši mēģinās attiecīgi matemātiski atdarināt datus. AI radītajā modelēšanā per se nešķiet veselais saprāts vai citi jūtīgi aspekti.

Turklāt AI izstrādātāji, iespējams, arī neapzinās, kas notiek. Arkāniskā matemātika ML/DL var apgrūtināt tagad slēpto aizspriedumu novēršanu. Jūs pamatoti cerat un gaidāt, ka AI izstrādātāji pārbaudīs potenciāli apraktos aizspriedumus, lai gan tas ir sarežģītāk, nekā varētu šķist. Pastāv liela iespēja, ka pat ar salīdzinoši plašu testēšanu ML/DL modeļu atbilstības modeļos joprojām būs novirzes.

Jūs varētu mazliet izmantot slaveno vai bēdīgi slaveno sakāmvārdu par atkritumu savākšanu. Lieta ir tāda, ka tas vairāk līdzinās aizspriedumiem, kas mānīgi tiek iepludināti, AI iegremdējot aizspriedumus. AI lēmumu pieņemšanas algoritms (ADM) aksiomātiski kļūst piekrauts ar nevienlīdzību.

Nav labi.

Atgriezīsimies pie AI sistēmām, kuras tiek izmantotas neatbilstošiem vai, iespējams, tiešiem pārkāpumiem, un kā tas ir saistīts ar nesen publicēto pētījumu par CCP lojalitāti.

Nāk prātā divi galvenie apsvērumi:

1) Šis AI gadījums ir daļa no lielāka nepārtraukta satraucoša AI izmantošanas modeļa, tāpēc tas ir draudīgs un atver acis attiecībā uz notiekošo.

2) kaķi var izlaist no somas tā, lai, ja šāds mākslīgais intelekts tiktu pieņemts vienā valstī, to varētu viegli izplatīt arī citās valstīs.

Sāciet ar pirmo punktu par šo AI gadījumu, kas ir daļa no pastāvīga modeļa.

Viens no īpaši svarīgiem iemesliem, kāpēc šis konkrētais pētījums ir īpaši satraukts, ir tas, ka tas ir daļa no plašāka modeļa, kā daži vēlas izmantot AI. Ja šis būtu vienīgais šāda veida pētījums, kas jebkad veikts, tas mūs varētu nedaudz satraukt. Tomēr tas, visticamāk, neatbalsotos ar tādu degsmi, kādu mēs tagad redzam.

Tas, iespējams, ir kaut kas, kas izkritīs no rokām.

Kā ziņots ziņās, Ķīna ir labi pazīstama ar to, ka tā uzstāja uz nepārvaramu lojalitāti ĶKP. Turklāt ir izveidoti vai tiek izveidoti dažādi līdzekļi, lai nodrošinātu, ka cilvēki tiek iekļauti valdības doktrīnā. Ir minēti gadījumi iepriekšējos pētījumos, kuru mērķis ir izstrādāt AI algoritmus, kas varētu novērtēt partijas biedru domāšanas apstākļus (skatīt Ķīnas atbalstīto Studiju laiki 2019. gadā, kurā minēti šie centieni).

Jūs varētu atcerēties, ka 2018. gadā viceprezidents Maiks Penss uzstājās ar runu Hadsona institūtā un uzsvēra, ka “Ķīnas valdnieku mērķis ir ieviest Orvela sistēmu, kuras pamatā ir praktiski visu cilvēka dzīves aspektu kontrole” (šī bija atsauce uz ĶKP ieviešanu). sociālā kredītpunktu vērtēšanas sistēma, kas ir ievērojams strīds). Jūs varētu droši apgalvot, ka šis nesenais ĶKP pētījums ir vēl viens solis šajā virzienā.

Mēs nezinām, kad un vai pēdējais salmiņš salauzīs kamieļa muguru tā, ka šie vienreizējie pētījumi tiek pārvērsti par plaši izplatītām uz AI balstītām uzraudzības sistēmām.

Otrs uzmanības vērts punkts ir tas, ka mēs nevaram pieņemt, ka šāda veida mākslīgais intelekts būs pieejams tikai Ķīnā. Būtībā, lai gan šāda veida AI izmantošana Ķīnā, kas varētu būt plaši izplatīta, pati par sevi ir satraucoša, citas valstis varētu rīkoties tāpat.

Tiklīdz tiek apgalvots, ka šim nolūkam paredzētais AI būs gatavs visizdevīgākajam laikam, visticamāk, nebūs vajadzīgs daudz laika, lai arī citas valstis izlemtu, ka vēlas to ieviest. Kaķis būs ārā no maisa. Dažas valstis, domājams, izmantos šo mākslīgo intelektu tieši nomācošā veidā un nemēģinās izlikties par to. Citas valstis, šķiet, censtos izmantot šāda veida mākslīgo intelektu šķietami labvēlīgiem mērķiem, no kuriem galu galā ir negatīvs aspekts, kas gandrīz būs neizbēgams.

Faktiski apgalvojums, ka šāda veida AI, iespējams, tiks pieņemts tikai tad, kad tas tiks uzskatīts par gatavu galvenajam laikam, ir nedaudz nepareizs nosaukums. Iespējams, ka nav nekādas atšķirības, vai AI var droši darboties šādā veidā. AI var izmantot kā vāka stāstu, skatiet manu skaidrojumu vietnē saite šeit. Neatkarīgi no tā, ko AI faktiski spēj paveikt, AI var būt ērts izlikšanās, lai ieviestu iedzīvotāju uzraudzību un shēmas, kā novērtēt un nodrošināt absolūtu lojalitāti iestādēm.

Šajā svarīgās diskusijas posmā es varu derēt, ka jūs vēlaties dažus ilustratīvus piemērus, kas varētu parādīt šo tēmu. Ir īpašs un noteikti populārs piemēru kopums, kas man ir tuvs. Redziet, manā kā MI ekspertam, tostarp ētiskajām un juridiskajām sekām, man bieži tiek lūgts identificēt reālistiskus piemērus, kas parāda AI ētikas dilemmas, lai varētu vieglāk uztvert tēmas nedaudz teorētisko raksturu. Viena no visspilgtākajām jomām, kas spilgti atspoguļo šo ētisko AI problēmu, ir uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās. Tas kalpos kā ērts lietošanas gadījums vai paraugs plašai diskusijai par šo tēmu.

Šeit ir viens ievērības cienīgs jautājums, par kuru ir vērts padomāt: Vai uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās kaut ko izgaismo par mākslīgā intelekta ļaunprātīgu izmantošanu, un, ja tā, ko tas parāda?

Ļaujiet man kādu brīdi izpakot jautājumu.

Pirmkārt, ņemiet vērā, ka īstā pašbraucošā automašīnā nav cilvēka vadītāja. Ņemiet vērā, ka patiesas pašbraucošas automašīnas tiek vadītas, izmantojot AI braukšanas sistēmu. Nav nepieciešams cilvēks pie stūres, kā arī nav paredzēts, ka cilvēks varētu vadīt transportlīdzekli. Manu plašo un pastāvīgo informāciju par autonomajiem transportlīdzekļiem (AV) un īpaši pašbraucošām automašīnām sk. saite šeit.

Es vēlētos vēl vairāk precizēt, kas ir domāts, runājot par patiesām pašbraucošām automašīnām.

Izpratne par pašbraucošo automašīnu līmeņiem

Paskaidrosim, ka patiesas pašbraucošas automašīnas ir tās, kurās mākslīgais intelekts vada automašīnu pilnībā un braukšanas uzdevuma laikā netiek sniegta cilvēka palīdzība.

Šie bezvadītāja transportlīdzekļi tiek uzskatīti par 4. un 5. līmeni (skatiet manu skaidrojumu vietnē šī saite šeit), savukārt automašīna, kuras vadītājam ir jādalās braukšanas piepūlē, parasti tiek uzskatīta par 2. vai 3. līmeni. Automašīnas, kas kopīgi veic vadīšanas uzdevumu, ir aprakstītas kā daļēji autonomas, un parasti tajās ir dažādas automatizēti papildinājumi, kas tiek saukti par ADAS (Advanced Driver-Assistance Systems).

Pagaidām vēl nav īstas pašbraucošas automašīnas 5. līmenī, un mēs vēl pat nezinām, vai to būs iespējams sasniegt, kā arī to, cik ilgs laiks būs nepieciešams, lai līdz tam nokļūtu.

Tikmēr 4. līmeņa centieni pakāpeniski mēģina iegūt zināmu saķeri, veicot ļoti šauru un selektīvu koplietošanas ceļu izmēģinājumus, lai gan pastāv strīdi par to, vai šī pārbaude ir jāatļauj per se (mēs visi esam dzīvības vai nāves jūrascūciņas eksperimentā kas notiek uz mūsu lielceļiem un blakusceļiem, daži apgalvo, skatiet manu pārklājumu vietnē šī saite šeit).

Tā kā pusautomātiskajām automašīnām ir nepieciešams autovadītājs, kas izmanto cilvēku, šāda veida automašīnas pieņemšana ievērojami neatšķirsies no parastā transporta līdzekļa vadīšanas, tāpēc per se nav daudz jaunu, lai par tām runātu par šo tēmu (lai gan, kā redzēsit pēc brīža nākamie punkti parasti ir piemērojami).

Pusautonomām automašīnām ir svarīgi, lai sabiedrība tiktu brīdināta par satraucošu aspektu, kas rodas pēdējā laikā, proti, ka, neskatoties uz tiem autovadītājiem, kas turpina publicēt video, kā viņi aizmiguši pie 2. vai 3. līmeņa automašīnas stūres , mums visiem jāizvairās no maldināšanas, uzskatot, ka vadītājs, vadot daļēji autonomu automašīnu, var novērst uzmanību no braukšanas uzdevuma.

Jūs esat atbildīgā persona par transportlīdzekļa vadīšanas darbībām neatkarīgi no tā, cik daudz automatizācijas var iemest 2. vai 3. līmenī.

Pašbraucošas automašīnas un mākslīgā intelekta ļaunprātīga izmantošana

4. un 5. līmeņa īstiem pašpiedziņas transportlīdzekļiem braukšanas uzdevumā nebūs iesaistīts autovadītājs.

Visi pasažieri būs pasažieri.

AI veic braukšanu.

Viens aspekts, kas nekavējoties jāapspriež, ietver faktu, ka AI, kas iesaistīts mūsdienu AI braukšanas sistēmās, nav jūtīgs. Citiem vārdiem sakot, AI kopumā ir datorizētas programmēšanas un algoritmu kolektīvs, un, protams, tas nespēj spriest tāpat kā cilvēki.

Kāpēc šis papildu uzsvars tiek likts uz to, ka AI nav jūtīgs?

Tā kā es gribu pasvītrot, ka, apspriežot AI braukšanas sistēmas lomu, es nepiešķiru AI cilvēka īpašības. Lūdzu, ņemiet vērā, ka mūsdienās pastāv un ir bīstama tendence antropomorfizēt AI. Būtībā cilvēki piešķir mūsdienu cilvēka intelektu mūsdienu AI, neskatoties uz nenoliedzamu un neapstrīdamu faktu, ka šāda AI vēl nav.

Izmantojot šo precizējumu, jūs varat iedomāties, ka AI braukšanas sistēma dabiski kaut kā “nezinās” par braukšanas aspektiem. Braukšana un viss, kas ar to saistīts, būs jāprogrammē kā daļa no pašpiedziņas automašīnas aparatūras un programmatūras.

Iegremdēsimies neskaitāmos aspektos, kas nāk par šo tēmu.

Pirmkārt, ir svarīgi saprast, ka ne visas AI pašbraucošās automašīnas ir vienādas. Katrs autoražotājs un pašpiedziņas tehnoloģiju uzņēmums izmanto savu pieeju, lai izstrādātu pašbraucošas automašīnas. Tādējādi ir grūti sniegt visaptverošus paziņojumus par to, ko AI vadīšanas sistēmas darīs vai nedarīs.

Turklāt ikreiz, kad tiek apgalvots, ka AI vadīšanas sistēma nedara kādu konkrētu lietu, to vēlāk var apsteigt izstrādātāji, kuri faktiski programmē datoru, lai to izdarītu. Soli pa solim AI braukšanas sistēmas tiek pakāpeniski uzlabotas un paplašinātas. Esošais ierobežojums šodien, iespējams, vairs nepastāvēs turpmākajā sistēmas iterācijā vai versijā.

Es ceru, ka tas sniedz pietiekamu atrunu, kas ir pamatā tam, ko es gatavojos stāstīt.

Ieskicēsim pašbraucošas automašīnas scenāriju, kas varētu izmantot mākslīgo intelektu slēptā vai nepareizā veidā.

Es dalīšos ar jums dažām uz AI balstītām pašbraucošas automašīnas sekām, kas var izraisīt jūs nodrebēšanu un satraukumu. Tie ir aspekti, par kuriem pašlaik gandrīz neviens neapspriež. Esmu vairākkārt aktualizējis šos jautājumus, lai gan atklāti atzīstu, ka, kamēr mums nebūs plaši izplatītas pašpiedziņas automašīnas, mēs nesaņemsim lielu saķeri, ka sabiedrība ir noraizējusies vai satraukta par to, kas šodien šķiet tikai abstrakti priekšstati. .

Vai esat gatavi?

Sāksim ar pamatu ieklāšanu.

Uz AI balstītas pašbraucošas automašīnas tiks aprīkotas ar videokamerām, tas ir saprātīgi. Tas ļauj pašbraucošai automašīnai saņemt braukšanas ainas video attēlus. Savukārt AI braukšanas sistēma, kas darbojas pašbraucošās automašīnas datoros, ir paredzēta, lai skaitļošanas veidā pārbaudītu savākto video un noskaidrotu, kur atrodas ceļš, kur atrodas tuvumā esošās automašīnas, kur atrodas gājēji utt. Es saprotu, ka es deklamēju pašbraucošo automašīnu 101 pamatprincipus.

Autonomā transportlīdzekļa ārpusē ir uzstādītas videokameras, kas ir vērstas uz āru. Turklāt kopumā jūs varat sagaidīt, ka transportlīdzeklī vai iekšpusē būs videokameras, kas vērstas uz iekšpusi pašpiedziņas automašīnas iekšpusē. Kāpēc tā? Viegli, jo būs daudz svarīgu pielietojumu, lai video tvertu autonomā transportlīdzekļa iekšienē notiekošo.

Kad dodaties izbraucienā ar pašbraucošu automašīnu, jums vairs nav jābūt vadītājam. Ko jūs tad darīsiet, atrodoties pašbraucošā automašīnā?

Viena lieta, ko jūs varētu darīt, būtu sazināties ar citiem mājās vai birojā. Šeit jūs esat ceļā uz darbu, kas teiks, ka jums būs jābrauc stundu ar pašbraucošu automašīnu, un jūs jau varat sākt savu darba dienu, veicot tālummaiņas interaktīvo tiešsaistes reāllaika sesiju. Viņi var jūs redzēt, jo kameras ir vērstas uz iekšpusi pašbraucošajā automašīnā. Iespējams, tos var redzēt uz LED ekrāna pašpiedziņas automašīnas iekšpusē. Dienas beigās, atgriežoties mājās, varat veikt līdzīgu interaktīvu video diskusiju ar saviem bērniem, kad viņi sāk pildīt vakara mājasdarbus.

Vēl viens pielietojums būtu nodarbības. Tagad, kad jums vairs nav jātērē laiks, braucot, jūs varat pārvērst šo laiku pašbraucošā automašīnā, lai uzlabotu savas prasmes vai iegūtu sertifikātu vai grādu. Izmantojot kameras, kas vērstas uz iekšpusi, jūsu instruktors var jūs redzēt un apspriest, kā notiek jūsu apmācība.

Vēl viens noderīgums būtu mēģināt nodrošināt, lai braucēji ar pašpiedziņas automašīnām neaizplūstu. Cilvēka vadītā automašīnā vadītājs ir pieaugušais, kas parasti neļauj braucējiem darīt tādas trakas lietas, piemēram, apzīmēt salonu ar grafiti. Kas notiks ar AI balstītām pašbraucošām automašīnām? Daži uztraucas, ka braucēji izvēlēsies saplēst transportlīdzekļu interjeru. Lai mēģinātu to novērst, koplietošanas uzņēmums, kas izvieto pašbraucošās automašīnas, visticamāk, izmantos uz iekšu vērstas videokameras, lai uzraudzītu, ko cilvēki dara, atrodoties autonomā transportlīdzeklī.

Es pieņemu, ka esat pārliecināts, ka mums būs videokameras, kas vērstas uz pašbraucošo automašīnu iekšpusi, papildus kamerām, kas vērstas uz āru, lai saskatītu braukšanas ainu.

Tagad jūs esat gatavs tam, ko es nosaucu par klejojošo aci, skatiet manu analīzi vietnē saite šeit.

Vispirms apsveriet videokameras, kas ir vērstas uz āru.

Lai kur arī pašbraucošā automašīna dotos, tā potenciāli spēs ierakstīt video visu, ko redz kameras. Pašbraucoša automašīna, kas paceļ kādu no mājām un aizvedīs uz pārtikas veikalu, šķērsos apkārtni, un video ierakstīs ne tikai brauktuvi, bet arī visu pārējo, kas notiek redzeslokā. Tēvs un dēls spēlējas savā pagalmā. Ģimene sēž uz lieveņa. Tā turpinās un turpinās.

Šobrīd uz koplietošanas ceļiem ir tik maz pašbraucošu automašīnu, ka šī iespēja uzņemt video par ikdienas aktivitātēm ir salīdzinoši niecīga un nebūtiska.

Iedomājieties, ka galu galā mēs panāksim drošas un plaši izplatītas pašbraucošas automašīnas. Tūkstošiem no tiem. Varbūt miljoniem. Mūsdienās ASV ir aptuveni 250 miljoni cilvēku vadītu automašīnu. Galu galā tās gandrīz aizstās ar pašbraucošām automašīnām vai vienkārši vairs netiks izmantotas, un mūsu ceļiem pārsvarā būs pašbraucošas automašīnas. Šīs pašbraucošās automašīnas vada AI, un tādējādi tās var viesabonēt visu diennakti. Nav atpūtas pārtraukumu, nav vannas istabas pārtraukumu.

Video datus var augšupielādēt no šīm pašbraucošajām automašīnām, izmantojot OTA (Over-The-Air) elektronisko tīklu savienojumus. Pašbraucošās automašīnas izmantos OTA, lai transportlīdzeklī lejupielādētu jaunākos AI programmatūras atjauninājumus. Turklāt OTA var izmantot, lai augšupielādētu datus no pašbraucošas automašīnas mākoņa datubāzē.

Kopumā šos augšupielādētos datus būtu iespējams savienot. Izmantojot šuves, jūs, iespējams, varētu apkopot ikviena ikdienas atnākšanu un aiziešanu, kas jebkurā dienā izgāja ārā jebkurā vietā, kurā plaši tika izmantotas pašbraucošas automašīnas.

Tā ir klīstošā acs, par kuru esmu brīdinājis.

Tagad mēs varam apvienot ĶKP pētījumu ar šāda veida spējām. Pieņemsim, ka valdībai ir piekļuve visiem šiem savāktajiem video datiem. Pēc tam viņi varētu izmantot uz mākslīgo intelektu balstītu sejas atpazīšanas algoritmu, lai noskaidrotu, kur jūs esat devies un kurā diennakts laikā ikdienas ceļojumu laikā. Turklāt viņi, iespējams, varētu izmantot savu “lojalitātes” AI analizatoru, lai noskaidrotu, vai jums šķiet, ka jūsu seja ir lojāls vai nē.

Iedomājieties, ka otrdienas pēcpusdienā jūs gājāt paņemt sviestmaizi vietējā ēstuvē. Pa brauktuvi garām brauca pašbraucošās automašīnas. Visos daudzajos videoklipos jūs iemūžināts, kad jūs veicat piecu minūšu gājienu, lai kaut ko paēstu. Dati tika augšupielādēti centralizētā datu bāzē. Valdība izmantoja savu AI sejas atpazīšanas programmu, pamatojoties uz datiem.

Izrādās, AI “noteica”, ka jūsu sejā bija nelojāls izskats.

Varbūt šis nelojālais skatiens notika tikai uz mirkli. Jūs gaidījāt pie ielas stūra, kad nomainīsies gaisma, lai jūs varētu šķērsot ielu uz ēdnīcu. Tajā brīdī jums bija neliela riebuma raustīšanās, ka jums bija pārāk ilgi jāgaida, lai parādītu Walk simbolu. Vai tas varbūt liecināja par jūsu nelojalitāti valdībai?

Jā, AI aprēķināts, jūs tajā brīdī bijāt ļoti nelojāls. Kad jūs tajā vakarā atgriežaties mājās, valdība ir parūpējusies par jūsu arestu.

Bet pagaidiet, tur ir vairāk.

Atcerieties, ka arī videokameras ir vērstas uz iekšu.

Tajā pašā otrdienā, kad jūs braucāt uz darbu ar pašbraucošu automašīnu, videokameras iemūžināja katru jūsu mirkli. Tas tika augšupielādēts centralizētā datu bāzē. AI programmatūra, kas analizē sejas modeļus nelojalitātes noteikšanai, veica jūsu sejas izteiksmes skaitļošanas modeļu pārbaudi ceļojuma laikā uz biroju.

Kādā brīdī jūs nejauši skatījāties ārpus autonomā transportlīdzekļa un pamanījāt būvstrādnieku, kas daļēji bloķēja brauktuvi un lika AI braukšanas sistēmai palēnināt pašbraucošo automašīnu. Uz sekundes daļu jūsu sejā parādījās izsmiekls pret šo būvstrādnieku, kurš palēnina satiksmi.

AI sejas modeļa analīze to interpretēja kā nelojalitātes pret valdību pazīmi.

Divi streiki pret jums vienas dienas laikā.

Jūs dzīvojat uz plāna ledus.

Protams, šajā kontekstā gandrīz nav nozīmes tam, vai AI ir “pareiza” vai “nepareiza” attiecībā uz jūsu lojalitātes noteikšanu. Būtība ir tāda, ka AI ir ieviests šim nolūkam. Cilvēkiem, kuri izvieto AI, varētu būt vai nerūp, vai AI ir piemērota šāda veida uzdevumiem. AI nodrošina valdības kontroli neatkarīgi no pašas tehnoloģiskās derīguma.

Tas attiecas uz sejas skenēšanu.

Ja mums galu galā ir kāda veida pārnēsājamas rentablas ierīces, lai veiktu (iespējamo) smadzeņu viļņu skenēšanu, to noteikti var iekļaut arī pašbraucošās automašīnās. Videokameras tagad ir droša lieta. Šāda kalibra smadzeņu viļņu skenēšanas ierīču iespēja pašlaik nav paredzēta, taču tā noteikti tiek plānota nākotnē.

Lai uzzinātu, kā valdība varētu mēģināt pārņemt iedzīvotājus, pārņemot vadību pār pašpiedziņas automašīnām, sk. saite šeit. Pastāv līdzīga iespēja, ka ļaunprātīgs aktieris varētu mēģināt darīt to pašu, sk saite šeit. Tā nav domāta kā biedēšanas taktika, lai atspoguļotu šīs saistītās tēmas, bet gan brīdinājums par kiberdrošības nozīmi un citiem piesardzības pasākumiem, kas mums kā sabiedrībai jācenšas veikt saistībā ar visuresošu pašbraucošu automašīnu un citi autonomie transportlīdzekļi.

Secinājumi

Es vēlos ātri aplūkot vienu papildu aspektu par AI, ko izmanto, lai noskaidrotu lojalitāti, kas, manuprāt, ir nedaudz atsevišķa tēma, taču tā ir tāda, par kuru daži tvīti un sociālie saziņas līdzekļi ir izteikušies.

Es iepriekš minēju, ka mums nav jutīga AI, un mēs nezinām, vai un kad tas būs. Izklaidēsim domu, ka mums būs jūtīgs AI. Tādā gadījumā apsveriet šādu scenāriju.

Mēs, izmantojot nejūtošu AI, izvēlamies plaši izmantot AI, kas skaitļošanas veidā nosaka, vai cilvēki ir lojāli savai valdībai, izmantojot sejas skenēšanu, smadzeņu viļņu skenēšanu un tā tālāk. To pilnībā pārvalda un izmanto cilvēki ar autoritāti. Tas ir satraucošais scenārijs, ko es aprakstīju tikai mirkli iepriekš.

Laiks palielināt ante.

AI kļūst jūtīgs. Tagad mēs esam potenciāli nodevuši šim jūtīgajam AI plaši izplatītu spēju, iespējams, identificēt lojalitāti un nelojalitāti cilvēkos. Ļaunprātīgs mākslīgais intelekts, kas apsver iespēju iznīcināt cilvēkus, varētu izmantot šo iespēju, lai izlemtu, ka cilvēki patiešām būs nelojāli un ir pilnībā jāiznīcina. Vai varbūt tikai tie cilvēki, kas ar savu seju vai domām parāda nelojalitāti, ir īpaši jānoraida.

Vēl viens aspekts ir tāds, ka AI vēlas paverdzināt cilvēkus, skatiet manu diskusiju saite šeit.

Šķiet, ka mēs esam devuši AI ideālu dāvanu šī uzdevuma veikšanai. Esošā infrastruktūra, ko mēs ieviesām, ļauj AI rūpīgi uzraudzīt mūs, cilvēkus. Tie, kuri, šķiet, ir pauduši nelojālu sejas norādi vai domājuši par AI kungu(-iem), izjutīs AI dusmas.

Es saprotu, ka es teicu, ka tas ir priekšlaicīgas paaugstināšana. Es neesmu pārliecināts, ka tas tā ir. Man šķiet, ka neatkarīgi no tā, vai mums ir mākslīgā intelekta pavēlnieki, kas tieši izlemj mūsu likteni, pret cilvēkiem, kas, iespējams, izmanto AI sistēmu, lai noteiktu lojalitāti, labi, neviens no piedāvājumiem nešķiet īpaši vēlams.

Pēdējais komentārs pagaidām.

Romiešu zinātnieks un filozofs Marks Tullijs Cicerons apgalvoja, ka nav nekā cēlāka, nekā cienījamāka par lojalitāti. Mēs, iespējams, ļausim mākslīgajam intelektam apsteigt mūs un kļūt par rīku, lai piesaistītu un nodrošinātu “lojalitāti” ar šausmīgiem līdzekļiem.

Noderīgs iemesls, lai AI ētiku iekļautu mūsu uzdevumu saraksta augšgalā.

Avots: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- apliecinājums, kas varētu paredzēt nomācošas autonomās sistēmas/