AI ētika, kas cīnās ar neizbēgamajām AI negadījumiem, kas skar arī autonomas pašbraucošas automašīnas

Vai jūs, iespējams, pazīstat kādu, kurš, šķiet, ir īpaši pakļauts nelaimes gadījumiem?

Šķiet, ka mēs visi to darām.

Iespējams, ka cilvēks ir tāds, kurš jūsu viesistabā var paslīdēt uz banāna mizas vai apgāzt dārgu vāzi. Tie ir cilvēka magnēts tāda vai cita veida negadījumiem. Tas var būt tik slikti, ka jums pat riebjas reizēm atrasties viņu tuvumā. Jūs varat saņemt draudīgu pārplūdi vai ciest no neslavas celšanās pēc kāda no viņu nepatīkamajām avārijām.

Bet varbūt mēs esam pārāk skarbi, apgalvojot, ka kāds ir vairāk pakļauts negadījumiem nekā citi. Varētu argumentēt, ka nelaimes gadījumi var notikt ar jebkuru no mums. Mēs visi esam pakļauti iespējai izdarīt vai iekļūt negadījumā. Ieskaitot labāko no mums.

Uzliksim šai diskusijai vēl vienu satraucošu jautājumu.

Vai nelaimes gadījumi ir neizbēgami?

Citiem vārdiem sakot, neatkarīgi no tā, cik smagi mēs censtos novērst negadījumus, tomēr var būt, ka joprojām pastāv iespēja un pilnīga pārliecība, ka negadījumi notiks. Jūs varat mēģināt pasargāt pasauli no negadījumiem. Tas šķiet neapšaubāmi saprātīgi. Bet tā vai citādi nelaimes tik un tā sacels savu neglīto galvu.

Kā saka, nelaimes gaida, kad notiks.

Varētu būt noderīgi precizēt, kas ir domāts, atsaucoties uz kādu notikumu, kas atbilstoši apzīmēts kā nelaimes gadījums. Parastā vārdnīcas definīcija ir tāda, ka negadījums ir negadījums, kas notiek negaidīti un netīši, un tam ir neveiksmīgs rezultāts, kas sastāv no bojājuma vai ievainojuma šķietamības.

Uzmanīgi izpakojiet šo definīciju.

Minētais incidents ir negaidīts. Tas nozīmē, ka mēs, šķiet, nenojaušam, ka notiks pati avārija.

Minētais incidents ir netīšs. Tas liek domāt, ka mums ir jāizslēdz apstākļi, kad kāds tīši gribēja, lai incidents notiktu. Ja palaidnis noliek banāna mizu uz grīdas, kur viņš zina, ka uzkāps neveiksmīgs un nenojauš nevainīgs cilvēks, jums būs grūti apgalvot, ka persona, kas tai paklupa, ir cietusi negadījumu. Tā vietā viņi tika piemānīti un mānīgi ievesti slazdā.

Definīcija ietver arī kritēriju, ka rezultāts ir neveiksmīgs. Negadījumam šajā gaismā ir jānoved pie skāba iznākuma. Persona, kas nejauši apgāza vāzi, ir ieplaisājusi un, iespējams, sabojājusi garšoto priekšmetu, kas nav labojama. Vāzes īpašniekam tiek nodarīts kaitējums vērtības zaudēšanai. Cilvēks, kurš ieskrēja vāzē, tagad varētu būt parādā īpašniekam par zaudējumiem. Debesis pasarg, ka kāds varētu tikt sagriezts vai nolaists lūžņos, saplīstot vāzei.

Vienlīdzīga līdzsvara labad mēs varētu vēlēties atzīmēt, ka ir arī tā sauktie "labie" negadījumi. Nelaimes gadījuma rezultātā cilvēks var nonākt pie lielas laimes vai uzkrāt kādu citu svarīgu labumu. Viens no visbiežāk citētajiem piemēriem ir sers Aleksandrs Flemings un viņa atzītais penicilīna atklājums. Stāsts vēsta, ka viņš savā laboratorijā bija mazliet neuzmanīgs un, atgriežoties no divu nedēļu atvaļinājuma, uz vienas no kultivēšanas šķīvjiem atrada pelējumu. Tiek ziņots, ka viņš par šo lietu teica šādi: “Cilvēks dažreiz atrod to, ko viņš nemeklē. Kad es pamodos tūlīt pēc rītausmas 28. gada 1928. septembrī, es noteikti neplānoju veikt revolūciju visā medicīnā, atklājot pasaulē pirmo antibiotiku jeb baktēriju iznīcinātāju. Bet es domāju, ka tas bija tieši tas, ko es darīju.

Mēs noliksim malā labvēlīgos negadījumus un koncentrēsimies uz bēdīgajiem negadījumiem. Negadījumu versija ar sarauktu seju ir tāda, kad šie nelabvēlīgie iznākumi var būt īpaši bīstami dzīvībai vai tiem var būt apgrūtinoši rezultāti. Cik vien iespējams, negatīvos negadījumus, ko vēlamies samazināt (un, protams, negatīvos negadījumus, ko mēs vēlētos palielināt, ja tas ir iespējams, lai gan es aplūkošu šo smaidiņu variantu vēlākā slejā).

Es gribētu nedaudz pārfrāzēt iepriekšējo jautājumu par nelaimes gadījumu neizbēgamību. Līdz šim mēs esam pievērsuši uzmanību negadījumiem, kas notiek konkrēta cilvēka gadījumā. Nav šaubu, ka negadījumi var skart arī daudzus cilvēkus vienlaikus. Īpaši tas var rasties, ja cilvēki ir iegrimuši vienā vai otrā veidā sarežģītā sistēmā.

Sagatavojieties iepriekš uzpeldētā jautājuma variantam.

Vai sistēmas avārijas ir neizbēgamas?

Mums vajadzētu to pārdomāt.

Pieņemsim, ka rūpnīcas grīda ir izklāta, lai izgatavotu detaļas automašīnām. Tie, kas projektēja rūpnīcu, ir ļoti noraizējušies par darba negadījumiem, kas varētu notikt. Rūpnīcas darbiniekiem vienmēr ir jāvalkā ķiveres. Izkārtnes rūpnīcā aicina uzmanīties no nelaimes gadījumiem un būt uzmanīgiem savā darbā. Tiek veikti visi piesardzības pasākumi, lai novērstu negadījumus.

Šajā sistēmā mēs varam cerēt, ka neviens nekad nenotiks nelaimes gadījumā. Vai jūs uzskatāt, ka negadījuma iespējamība ir nulle? Es uzdrīkstētos domāt, ka neviens saprātīgs domātājs neliktu likmi, ka negadījuma iespēja šajā gadījumā ir nulle. Negadījuma iespējamība var būt ļoti zema, taču mēs joprojām zinām un pieņemam, ka, neskatoties uz visiem piesardzības pasākumiem, joprojām pastāv neliels negadījuma risks.

Tas viss norāda uz domu, ka pietiekami sarežģītā sistēmā mums ir jātic, ka nelaimes gadījumi joprojām notiks neatkarīgi no tā, cik smagi mēs cenšamies tos novērst. Mēs negribīgi atbalstām nosacījumu, ka sistēmas avārijas patiešām ir neizbēgamas. Šāda kalibra grandiozs paziņojums varētu ietvert brīdinājumu, ka sistēmai jābūt ar zināmu sarežģītības slieksni, lai pēc būtības nebūtu iespējams aptvert visus pamatus, lai pilnībā novērstu negadījumus.

Tagad jūs esat soli pa solim glīti iepazīstināts ar plaši izklāstītu teoriju par negadījumiem, ko var apzīmēt kā parastos negadījumus vai parasto negadījumu teoriju (NAT). Šeit ir ērts apraksts, ko sniedz pētnieki, kuri ir pārbaudījuši šo jēdzienu: “Pietiekami lielā mērogā jebkura sistēma radīs “parastus negadījumus”. Tie ir neizbēgami negadījumi, ko izraisa sarežģītības, komponentu savienojuma un iespējamā kaitējuma kombinācija. Parasts negadījums atšķiras no biežāk sastopamajiem komponentu atteices negadījumiem ar to, ka notikumi un mijiedarbība, kas izraisa parastu negadījumu, nav saprotami sistēmas operatoriem” (kā teikts Roberta Viljamsa un izdevumā “Interstanding and Avoiding AI Failures: A Practical Guide”). Romāns Jampoļskis, Filozofijas žurnāls).

Iemesls, kādēļ es tevi atvedu uz tā saukto zemi parastas avārijas ir tas, ka mums, iespējams, vajadzēs rūpīgi piemērot šo teoriju kaut kam, kas mūsu sabiedrībā pakāpeniski un neizbēgami kļūst visuresošs, proti, mākslīgā intelekta (AI) parādīšanās.

Iedziļināsimies šajā.

Daži cilvēki maldīgi pieņem, ka AI būs pilnība. AI sistēmas nepieļaus kļūdas un neievedīs mūs nepatikšanās, liecina spekulācijas. Viss, kas jums jādara, ir jāpārliecinās, ka šie AI izstrādātāji veic pietiekami labu darbu, un voila, AI nekad nedarīs neko tādu, ko varētu uzskatīt par nejaušu vai negadījuma izraisīšanu.

Ne tik ātri pie šīs hipotētiskās pārliecības. Ja esat gatavs iegādāties teoriju par parastas avārijas, jebkuras sarežģītības AI neizbēgami izraisīs negadījumu. Neatkarīgi no tā, cik daudz mākslīgā intelekta izstrādātāju darās vēlu vakarā, lai novērstu negadījumu, AI noteikti kādā brīdī iekļūs negadījumā. Tādā veidā cepums drūp. Un nav nekāda atelpa, raudot mūsu izlijušajā pienā par to.

Apdomājiet AI sajaukumu un tā konceptuālos principus parastas avārijas.

Iedomājieties, ka mums ir AI sistēma, kas kontrolē kodolieročus. AI ir rūpīgi izstrādāts. Visas iespējamās pārbaudes un līdzsvara ir iekodētas AI sistēmā. Vai mēs esam pasargāti no AI balstīta negadījuma, kas varētu notikt? Tie, kas atbalsta parasto negadījumu viedokli, teiktu, ka mēs neesam tik droši, kā varētu pieņemt. Ņemot vērā to, ka mākslīgais intelekts, visticamāk, būs īpaši sarežģīts, parasts negadījums klusi gaida, lai kādreiz notiktu, iespējams, sliktākajā iespējamajā brīdī.

Šo sarežģīto jautājumu un šaubu būtība ir tāda, ka mums ir jābūt pārliecinātiem, ka mākslīgais intelekts noteikti ir noslogots ar negadījumiem, un cilvēcei ir jādara kaut kas saprātīgs un proaktīvs, lai novērstu draudus, kas var rasties. Kā jūs redzēsiet pēc mirkļa vai diviem, tas ir ļoti aktuāls apsvērums, kad runa ir par AI izmantošanu, un AI ētikas un ētiskās AI jomās diezgan daudz jācīnās par to, ko darīt. Manu pastāvīgo un plašo AI ētikas un ētiskās AI atspoguļojumu skatiet saite šeit un saite šeit, tikai nosaukt dažus.

Pirms dosimies trušu bedrē, pārliecināsimies, ka esam vienā lapā par AI būtību. Mūsdienās nav AI, kas būtu jūtīgs. Mums šī nav. Mēs nezinām, vai jutīgais AI būs iespējams. Neviens nevar precīzi paredzēt, vai mēs sasniegsim jutīgu AI, kā arī to, vai jutīgs AI kaut kā brīnumaini spontāni radīsies skaitļošanas kognitīvās supernovas veidā (parasti saukta par singularitāti, skatiet manu pārklājumu vietnē saite šeit).

AI veids, uz kuru es koncentrējos, sastāv no nejūtošā AI, kas mums ir šodien. Ja mēs gribējām mežonīgi spekulēt par jūtīgs AI, šī diskusija varētu virzīties radikāli citā virzienā. Domājams AI būtu cilvēka kvalitātes. Jums jāņem vērā, ka jutīgais AI ir kognitīvs ekvivalents cilvēkam, kas sniedz jums padomu. Vēl jo vairāk, tā kā daži uzskata, ka mums varētu būt superinteliģents AI, ir iespējams, ka šāds AI varētu būt gudrāks par cilvēkiem (manu superinteliģentā AI kā iespēju izpēti sk. pārklājums šeit). Visi stāstīti par šiem scenārijiem paātrinās avota novērtējumu.

Turēsim lietas piezemētākas un apsvērsim mūsdienu skaitļošanas nejūtīgo AI.

Saprotiet, ka mūsdienu mākslīgais intelekts nespēj “domāt” tādā pašā veidā kā cilvēka domāšana. Mijiedarbojoties ar Alexa vai Siri, sarunu spējas var šķist līdzīgas cilvēka spējām, taču patiesībā tās ir skaitļošanas iespējas un tām trūkst cilvēka izziņas. Jaunākajā AI laikmetā ir plaši izmantota mašīnmācīšanās (ML) un dziļā mācīšanās (DL), kas izmanto skaitļošanas modeļu saskaņošanu. Tas ir novedis pie AI sistēmām, kas izskatās pēc cilvēkiem līdzīgas tieksmes. Tikmēr mūsdienās nav neviena mākslīgā intelekta, kam būtu veselais saprāts un arī cilvēka spēcīgas domāšanas izziņas brīnums.

Jūs varētu zināt, ka tad, kad sākās jaunākā AI ēra, bija milzīgs entuziasma uzliesmojums par to, ko daži tagad sauc. AI uz labu. Diemžēl mēs sākām būt liecinieki šim uzliesmojumam AI For Bad. Piemēram, ir atklāts, ka dažādas uz AI balstītas sejas atpazīšanas sistēmas satur rasu un dzimuma aizspriedumus, par ko esmu runājis saite šeit.

Centieni cīnīties pret AI For Bad aktīvi norisinās. Turklāt skaļš juridisks Mēģinot savaldīt pārkāpumus, notiek arī būtisks grūdiens AI ētikas ievērošanai, lai izlabotu AI neģēlību. Domājams, ka mums ir jāpieņem un jāapstiprina galvenie ētiskie AI principi AI izstrādei un izmantošanai, tādējādi samazinot AI For Bad un vienlaikus sludinot un popularizējot vēlamo AI uz labu.

Saistībā ar to es iestājos par mēģinājumu izmantot AI kā daļu no AI problēmu risinājuma, cīnoties pret uguni ar uguni šādā domāšanas veidā. Piemēram, mēs varētu iegult ētiskos AI komponentus AI sistēmā, kas uzraudzīs, kā pārējais AI dara lietas, un tādējādi, iespējams, reāllaikā uztvers jebkādus diskriminējošus centienus. Skatiet manu diskusiju vietnē saite šeit. Mums varētu būt arī atsevišķa AI sistēma, kas darbojas kā AI ētikas monitora veids. AI sistēma kalpo kā pārraugs, lai izsekotu un noteiktu, kad cits AI nonāk neētiskajā bezdibenī (skatiet manu analīzi par šādām iespējām vietnē saite šeit).

Kopumā ir cerība, ka, izveidojot izpratni par AI ētikas priekšrakstiem, mēs vismaz spēsim palielināt sabiedrības izpratni par to, ko AI var sniegt gan labvēlīgi, gan arī nelabvēlīgi. Esmu plaši apspriedis dažādas AI ētikas principu kolektīvās analīzes, tostarp esmu aptvēris pētnieku izstrādāto kopumu, kurā tika pētīta un apkopota daudzu nacionālo un starptautisko AI ētikas principu būtība rakstā “The Global Landscape Of AI Ethics Guidelines” (publicēts). iekšā daba), un ka mans pārklājums pēta plkst saite šeit, kas noveda pie šī stūrakmens saraksta:

  • Caurspīdīgums
  • Taisnīgums un godīgums
  • Ne-ļaunprātība
  • atbildība
  • Privātums
  • Labums
  • Brīvība un autonomija
  • Uzticēties
  • Ilgtspējība
  • cieņa
  • Solidaritāte

Kā jūs varētu tieši nojaust, mēģināt noteikt šo principu pamatā esošo specifiku var būt ārkārtīgi grūti. Vēl jo vairāk, centieni pārvērst šos plašos principus par kaut ko pilnīgi taustāmu un pietiekami detalizētu, lai tos izmantotu AI sistēmu izstrādē, arī ir grūts rieksts. Kopumā ir viegli pamātīt ar roku par to, kas ir AI ētikas priekšraksti un kā tie vispārīgi jāievēro, savukārt AI kodēšanas situācija ir daudz sarežģītāka, ja tai ir jābūt īstai gumijai, kas saskaras ar ceļu.

AI ētikas principi ir jāizmanto AI izstrādātājiem, kā arī tiem, kas pārvalda AI izstrādes centienus, un pat tiem, kas galu galā veic AI sistēmu uzturēšanu un uzturēšanu. Visas ieinteresētās puses visā AI izstrādes un lietošanas dzīves ciklā tiek uzskatītas par ētiskā AI noteikto normu ievērošanu. Tas ir svarīgs akcents, jo parasti tiek pieņemts, ka “tikai kodētāji” vai tie, kas programmē AI, ir pakļauti AI ētikas jēdzieniem. Kā minēts iepriekš, ir nepieciešams ciemats, lai izstrādātu un ieviestu AI, un tam visam ciemam ir jābūt pieredzējušam un jāievēro AI ētikas priekšraksti.

Mums, iespējams, būs jāpievieno slavinātie AI ētikas saraksti, kas mums ir skaidri jāapsver un jāveic atklātas darbības, lai novērstu vai vismaz krasi mazinātu uz AI balstīto ietekmi. parastas avārijas kas varētu rasties. Tiem, kas izstrādā AI, šajā jomā ir jādara viss iespējamais. Tiem, kas izvieto AI, jādara tāpat. Tiem, kas izmanto mākslīgo intelektu vai ir pakļauti tam, jābūt piesardzīgiem un jāuzmanās no AI negadījumu iespējamības, kas, šķiet, varētu rasties.

Jums varētu rasties kārdinājums domāt, ka AI var iebūvēt pietiekami daudz piesardzības pasākumu, lai negadījuma iespējamība samazinātos līdz nullei. Tiem, kas ir tehniķi, parasti ir neapmierinātība, ka, ja kāda tehnika var radīt problēmu, cita tehnika var noteikti atrisināt problēmu. Vienkārši turpiniet mētāties ar arvien vairāk tehnoloģiju, līdz problēma pazūd.

Tie, kas ir pētījuši uz sistēmām orientētus negadījumus, mēdz nepiekrist un pieklājīgi atbildēt uz domājamo tehniku ​​pompozitāti, piedāvājot viedokli, kas pazīstams kā Šveices siera modelis (SCM): “SCM drošības slāņi tiek modelēti kā šķēles siers ar caurumiem, kas atspoguļo vājās vietas katrā drošības slānī. Laika gaitā caurumi maina formu un pārvietojas. Galu galā neatkarīgi no tā, cik siera šķēles (drošības slāņu) ir, caurumi sakrīt, ļaujot taisni izsist cauri visām siera šķēlītēm (notiek negadījums)” (saskaņā ar iepriekš citēto Roberta Viljamsa un Romāna Jampolska rakstu ).

Es nevēlos iegrimt šajā sānu pieskarei jautājumā par to, vai ir garantēts veids, kā ieprogrammēt AI, lai pilnībā un vienmēr novērstu jebkādu negadījumu iespējamību. Tiek izmēģinātas visas matemātiskās un skaitļošanas pierādīšanas pieejas. Manuprāt, ir saprātīgi un godīgi paziņot, ka mums šodien nav mērogojamu darba metožu, ne tehnoloģiju, kas varētu garantēt šādu nulles iespēju, kā arī mēs noteikti esam apgrūtināti ar daudzām tonnām mākslīgā intelekta, kas tiek ražots neparasti. zinu, ka nav mēģinājis ievērot šādu praksi. Pēdējais punkts ir būtisks, jo pat tad, ja mēs varam kaut ko izdomāt AI laboratorijā, to mērogošana līdz miljardiem savvaļas un bezrūpīgu mākslīgā intelekta pūliņu, kas notiek un kas turpinās parādīties, ir sarežģīts jautājums, un tas, visticamāk, neatrisināsies pat tad, ja skaitļošanas pierādīšanas iekārta ir sudraba. lode pastāvēja.

Vēl viens punkts, kas, manuprāt, ir pelnījis īsu pieminēšanu, ir AI, kas tiek pārvērsta par nevēlamām darbībām ļaunprātīgu cilvēku darbības rezultātā. Es netaisos šos gadījumus iekļaut AI negadījumu jomā. Atcerieties, ka atklāšanas diskusijā tika norādīts, ka negadījuma definīcija vārdnīcā ir negadījums netīši dabu. Ja cilvēka kiberkrāpniekam izdodas panākt, lai mākslīgā intelekta sistēma izdarītu sliktas lietas, es neklasificēju šo AI kā negadījumu. Es ticu, ka jūs piekrītat šim pieņēmumam.

Rodas interesants jautājums par to, cik daudz dažādu AI nevēlamu darbību var saistīt tikai ar AI negadījumu, salīdzinot ar kibernoziedznieka viltīgu rīcību. Saskaņā ar dažām esošajām AI incidentu ziņošanas datubāzēm šķiet, ka mākslīgā intelekta negadījumi notiek biežāk nekā ļaunprātīgi izraisīti negadījumi, lai gan šis jēdziens ir jāuztver ar lielu sāls devu. Es to saku tāpēc, ka pastāv liels kārdinājums neziņot, kad AI sistēmai ir uzbrukts, un, iespējams, būt vairāk gatavam ziņot, ja notiek AI negadījums.

Attiecībā uz AI negadījumiem mums ir jāapspriež ārkārtīgi svarīgs brīdinājums.

Apzīmējuma “AI nelaimes gadījumi” lietošana parasti ir nevēlama un radīs diezgan lielu jucekli mums visiem, kas nozīmē visu sabiedrību. Kad cilvēks, iespējams, nokļūst negadījumā, mēs bieži paraustām plecus un jūtam līdzjūtību negadījumā cietušajam. Šķiet, ka mēs uztveram vārdu “negadījums” tā, it kā tas nozīmētu, ka neviens nav atbildīgs par notikušo.

Ņemsim piemēru par iekļūšanu autoavārijā. Viena automašīna labajā pagriezienā plaši šūpojas un nejauši ietriecas citā automašīnā, kas brauca taisni uz priekšu. Shucks, tas bija tikai negadījums un notika nejauši. Tie, kas nebija iesaistīti incidentā, iespējams, liks lietā, ja notikums tiek uzskatīts par tikai notikušu negadījumu.

Man gan ir sajūta, ka, atrodoties satriektajā mašīnā, tu nebūtu tik simpātisks pret šoferi, kurš veica pārāk plato pagriezienu. Jūsu viedoklis noteikti būtu tāds, ka otrs vadītājs bija slikts vadītājs un šķietami nelikumīga vai nepārdomāta braukšana izraisīja autoavāriju. Apzīmējot negadījumu kā "negadījumu", iestrēgušais vadītājs tagad ir nedaudz neizdevīgākā situācijā, jo šķiet, ka tas viss noticis nejaušības dēļ, nevis ar sajukušo vadītāju rokām.

Faktiski vārds “avārija” ir tik piepildīts ar dažādām konotācijām, ka kopumā valdības statistika par autoavārijām šo lietu dēvē par automašīnu sadursmēm vai autoavārijām, nevis izmanto frāzi autoavārijas. Šķiet, ka automašīnas sadursme vai autoavārija neietekmē incidenta norisi. Tikmēr frāze par "autoavāriju" gandrīz liek domāt, ka tā bija likteņa dīvainība vai kaut kā ārpus cilvēces rokām.

Jūs varat labi redzēt, kā šis konotācijas apsvērums tiek izmantots, runājot par AI negadījumiem. Mēs nevēlamies, lai mākslīgā intelekta izstrādātāji slēpjas aiz konotācijas vairoga, ka AI vienkārši nejauši kādam nodarīja kaitējumu. Tas pats attiecas uz tiem, kas izvieto AI. Jūs varētu iebilst, ka frāze “AI negadījumi” ir gandrīz AI antropomorfizācija, kas maldinās sabiedrību, ļaujot cilvēkiem, kas atradās AI aizkulisēs, izvairīties no atbildības. Manu diskusiju par pieaugošo nozīmi cilvēku celšanai par savu AI skatiet manā diskusijā vietnē šī saite šeit un šī saite šeit.

Turpmāk es izmantošu mākslīgā intelekta negadījumu frāzi, taču es to daru nelabprāt un tikai tāpēc, ka tas ir tradicionāls veids, kā atsaukties uz šo parādību. Mēģinājumi to formulēt citādi diemžēl mēdz būt vairāk uzpūsti un nav tik viegli nolasāmi. Lūdzu, interpretējiet šo frāzi tā, lai jūs neskatītos no malas un neapzinātos, ka cilvēki, kas ir mākslīgā intelekta pamatā, ir vainīgi, ja AI noiet greizi.

Lai palīdzētu ilustrēt iespējamo neskaidrību vai maldinošos aspektus, atsaucoties uz AI kā nelaimes gadījumu, varam atgriezties pie manām piezīmēm par vāzes apgāzšanu. Apsveriet šo AI piemēru: “Šī problēma ir saistīta ar lietām, ko AI veic nejauši vai vienaldzīgi. Viens piemērs tam ir tīrīšanas robots, kas apgāž vāzi. Sarežģītā vidē ir tik daudz veidu “vāzes”, ka mēs, visticamāk, nevarēsim ieprogrammēt sodu par visām blakusparādībām” (saskaņā ar Roberta Viljamsa un Romāna Jampolska rakstu).

AI sistēma, kas tiek izmantota mājsaimniecībā un pēc tam “nejauši” apgāž vāzi, šķiet, liek domāt, ka nevienu nevajadzētu vainot šajā AI nelabvēlīgajā darbībā. Tas bija tikai negadījums, var nožēlot nožēlot. No otras puses, mums būtu pamatoti jājautā, kāpēc AI sistēma nebija ieprogrammēta, lai kopumā risinātu vāzes apstākļus. Pat ja mākslīgā intelekta izstrādātāji neparedzēja, ka vāze pati par sevi atrodas to objektu tvērumā, ar kuriem varētu saskarties, mēs noteikti varam apšaubīt, kāpēc nebija kāda visaptveroša izvairīšanās no objektiem, kas neļautu AI sistēmai apgāzt vāze (tādējādi mākslīgais intelekts, iespējams, neklasificētu vāzi kā vāzi, bet tomēr varēja izvairīties no tās kā nosakāma objekta, no kura jāizvairās).

Esmu paredzējis un turpinu prognozēt, ka mēs pakāpeniski virzāmies uz nopietno juridisku cīņu par mākslīgā intelekta sistēmu rašanos, kas nonāk “AI negadījumos” un rada zināmu kaitējumu. Līdz šim sabiedrība nav pietiekami reaģējusi uz likumīgu mākslīgā intelekta atgrūšanu, kas tiek izspiesta tirgū un rada negatīvas sekas vai nu ar nolūku, vai netīši. Mūsdienu mākslīgā intelekta grupai, kas ir kļuvusi par puslīdz gatavu mākslīgā intelekta veidotāju un to cilvēku, kuri steidzīgi īsteno mākslīgā intelekta ieviešanu, zelts, šobrīd veicas, un tie joprojām ir relatīvi neskarti no civilprasībām un kriminālvajāšanas.

Agri vai vēlu tuvojas mākslīgā intelekta izraisīta juridiskā pretreakcija.

Turpinot, kā mums mēģināt tikt galā ar tā saukto AI negadījumu neizbēgamību?

Viena lieta, ko mēs varam darīt uzreiz, ir mēģināt paredzēt, kā var notikt AI negadījumi. Paredzot mākslīgā intelekta negadījumus, mēs varam vismaz censties izstrādāt līdzekļus, lai tos ierobežotu vai samazinātu to rašanās iespējamību. Turklāt mēs varam mēģināt uzstādīt aizsargmargas, lai AI negadījuma gadījumā tiktu samazināta demonstratīva kaitējuma iespējamība.

Noderīgs faktoru kopums, kas tika aprakstīts iepriekš citētajā pētījuma rakstā AI kļūmju izpratne un novēršana: praktiska rokasgrāmata ietver šīs īpašības (kā citēts no pētījuma):

  • Sistēma, kuru ietekmē AI izejas.
  • Laika aizkave starp AI izvadiem un lielāku sistēmu, sistēmas novērojamība, cilvēka uzmanības līmenis un operatoru spēja novērst AI darbības traucējumus.
  • Maksimālais iespējamais kaitējums, ļaunprātīgi izmantojot AI kontrolētās sistēmas.
  • Komponentu savienošana AI tuvumā un mijiedarbības sarežģītība.
  • Zināšanu trūkums par AI un citām izmantotajām tehnoloģijām un sistēmas enerģijas līmeni.

Šajā spēcīgās diskusijas posmā es varu derēt, ka jūs vēlaties sniegt dažus ilustratīvus piemērus, kas varētu vēl vairāk izskaidrot AI negadījumu tēmu. Ir īpašs un noteikti populārs piemēru kopums, kas man ir tuvs. Redziet, manā kā MI ekspertam, tostarp ētiskajām un juridiskajām sekām, man bieži tiek lūgts identificēt reālistiskus piemērus, kas parāda AI ētikas dilemmas, lai varētu vieglāk uztvert tēmas nedaudz teorētisko raksturu. Viena no visspilgtākajām jomām, kas spilgti atspoguļo šo ētisko AI problēmu, ir uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās. Tas kalpos kā ērts lietošanas gadījums vai paraugs plašai diskusijai par šo tēmu.

Šeit ir viens ievērības cienīgs jautājums, par kuru ir vērts padomāt: Vai uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās kaut ko izgaismo par tā saukto AI negadījumu rašanos, un, ja jā, ko tas parāda?

Ļaujiet man kādu brīdi izpakot jautājumu.

Pirmkārt, ņemiet vērā, ka īstā pašbraucošā automašīnā nav cilvēka vadītāja. Ņemiet vērā, ka patiesas pašbraucošas automašīnas tiek vadītas, izmantojot AI braukšanas sistēmu. Nav nepieciešams cilvēks pie stūres, kā arī nav paredzēts, ka cilvēks varētu vadīt transportlīdzekli. Manu plašo un pastāvīgo informāciju par autonomajiem transportlīdzekļiem (AV) un īpaši pašbraucošām automašīnām sk. saite šeit.

Es vēlētos vēl vairāk precizēt, kas ir domāts, runājot par patiesām pašbraucošām automašīnām.

Izpratne par pašbraucošo automašīnu līmeņiem

Paskaidrosim, ka patiesas pašbraucošas automašīnas ir tās, kurās mākslīgais intelekts vada automašīnu pilnībā un braukšanas uzdevuma laikā netiek sniegta cilvēka palīdzība.

Šie bezvadītāja transportlīdzekļi tiek uzskatīti par 4. un 5. līmeni (skatiet manu skaidrojumu vietnē šī saite šeit), savukārt automašīna, kuras vadītājam ir jādalās braukšanas piepūlē, parasti tiek uzskatīta par 2. vai 3. līmeni. Automašīnas, kas kopīgi veic vadīšanas uzdevumu, ir aprakstītas kā daļēji autonomas, un parasti tajās ir dažādas automatizēti papildinājumi, kas tiek saukti par ADAS (Advanced Driver-Assistance Systems).

Pagaidām vēl nav īstas pašbraucošas automašīnas 5. līmenī, un mēs vēl pat nezinām, vai to būs iespējams sasniegt, kā arī to, cik ilgs laiks būs nepieciešams, lai līdz tam nokļūtu.

Tikmēr 4. līmeņa centieni pakāpeniski mēģina iegūt zināmu saķeri, veicot ļoti šauru un selektīvu koplietošanas ceļu izmēģinājumus, lai gan pastāv strīdi par to, vai šī pārbaude ir jāatļauj per se (mēs visi esam dzīvības vai nāves jūrascūciņas eksperimentā kas notiek uz mūsu lielceļiem un blakusceļiem, daži apgalvo, skatiet manu pārklājumu vietnē šī saite šeit).

Tā kā pusautomātiskajām automašīnām ir nepieciešams autovadītājs, kas izmanto cilvēku, šāda veida automašīnas pieņemšana ievērojami neatšķirsies no parastā transporta līdzekļa vadīšanas, tāpēc per se nav daudz jaunu, lai par tām runātu par šo tēmu (lai gan, kā redzēsit pēc brīža nākamie punkti parasti ir piemērojami).

Pusautonomām automašīnām ir svarīgi, lai sabiedrība tiktu brīdināta par satraucošu aspektu, kas rodas pēdējā laikā, proti, ka, neskatoties uz tiem autovadītājiem, kas turpina publicēt video, kā viņi aizmiguši pie 2. vai 3. līmeņa automašīnas stūres , mums visiem jāizvairās no maldināšanas, uzskatot, ka vadītājs, vadot daļēji autonomu automašīnu, var novērst uzmanību no braukšanas uzdevuma.

Jūs esat atbildīgā persona par transportlīdzekļa vadīšanas darbībām neatkarīgi no tā, cik daudz automatizācijas var iemest 2. vai 3. līmenī.

Pašbraucošas automašīnas un AI incidenti

4. un 5. līmeņa īstiem pašpiedziņas transportlīdzekļiem braukšanas uzdevumā nebūs iesaistīts autovadītājs.

Visi pasažieri būs pasažieri.

AI veic braukšanu.

Viens aspekts, kas nekavējoties jāapspriež, ietver faktu, ka AI, kas iesaistīts mūsdienu AI braukšanas sistēmās, nav jūtīgs. Citiem vārdiem sakot, AI kopumā ir datorizētas programmēšanas un algoritmu kolektīvs, un, protams, tas nespēj spriest tāpat kā cilvēki.

Kāpēc šis papildu uzsvars tiek likts uz to, ka AI nav jūtīgs?

Tā kā es gribu pasvītrot, ka, apspriežot AI braukšanas sistēmas lomu, es nepiešķiru AI cilvēka īpašības. Lūdzu, ņemiet vērā, ka mūsdienās pastāv un ir bīstama tendence antropomorfizēt AI. Būtībā cilvēki piešķir mūsdienu cilvēka intelektu mūsdienu AI, neskatoties uz nenoliedzamu un neapstrīdamu faktu, ka šāda AI vēl nav.

Izmantojot šo precizējumu, jūs varat iedomāties, ka AI braukšanas sistēma dabiski kaut kā “nezinās” par braukšanas aspektiem. Braukšana un viss, kas ar to saistīts, būs jāprogrammē kā daļa no pašpiedziņas automašīnas aparatūras un programmatūras.

Iegremdēsimies neskaitāmos aspektos, kas nāk par šo tēmu.

Pirmkārt, ir svarīgi saprast, ka ne visas AI pašbraucošās automašīnas ir vienādas. Katrs autoražotājs un pašpiedziņas tehnoloģiju uzņēmums izmanto savu pieeju, lai izstrādātu pašbraucošas automašīnas. Tādējādi ir grūti sniegt visaptverošus paziņojumus par to, ko AI vadīšanas sistēmas darīs vai nedarīs.

Turklāt ikreiz, kad tiek apgalvots, ka AI vadīšanas sistēma nedara kādu konkrētu lietu, to vēlāk var apsteigt izstrādātāji, kuri faktiski programmē datoru, lai to izdarītu. Soli pa solim AI braukšanas sistēmas tiek pakāpeniski uzlabotas un paplašinātas. Esošais ierobežojums šodien, iespējams, vairs nepastāvēs turpmākajā sistēmas iterācijā vai versijā.

Es ticu, ka tas sniedz pietiekamu iebildumu litāniju, lai pamatotu to, ko es drīzumā stāstu.

Šobrīd esam gatavi dziļi izpētīt pašbraucošās automašīnas un ētiskās AI iespējas, kas saistītas ar tā saukto AI negadījumu rašanos.

Iedomājieties, ka uz AI balstīta pašbraucoša automašīna atrodas jūsu apkārtnes ielās un šķiet, ka tā brauc droši. Sākumā jūs bijāt īpašu uzmanību veltījis katrai reizei, kad izdevās acīs redzēt pašbraucošo automašīnu. Autonomais transportlīdzeklis izcēlās ar savu elektronisko sensoru plauktu, kas ietvēra videokameras, radara blokus, LIDAR ierīces un tamlīdzīgus elementus. Pēc daudzām nedēļām, kad pašpiedziņas auto braukāja pa jūsu kopienu, jūs to tik tikko pamanāt. Ciktāl jums tas attiecas, tā ir tikai vēl viena automašīna uz jau tā noslogotajiem koplietošanas ceļiem.

Lai jums nešķiet, ka ir neiespējami vai neticami iepazīties ar pašbraucošo automašīnu redzēšanu, esmu bieži rakstījis par to, kā vietas, kas ir pašbraucošo automašīnu izmēģinājumu ietvaros, pamazām ir pieradušas redzēt izrotātus transportlīdzekļus. Daudzi vietējie iedzīvotāji galu galā pārgāja no aizrautīgās raudāšanas uz muti, bet tagad izstaro plašu garlaicības žāvas sajūtu, lai redzētu šīs līkumotās pašbraucošās automašīnas.

Iespējams, šobrīd galvenais iemesls, kāpēc viņi varētu pamanīt autonomos transportlīdzekļus, ir kairinājuma un sašutuma faktors. Pašreizējās AI braukšanas sistēmas nodrošina, ka automašīnas ievēro visus ātruma ierobežojumus un ceļu satiksmes noteikumus. Tradicionālie cilvēku vadītie autovadītāji, kuri brauc ar savām tradicionālajām cilvēku vadītajām automašīnām, dažkārt ir sašutuši, kad ir iestrēguši aiz strikti likumpaklausīgām AI pašbraucošām automašīnām.

Tas ir kaut kas, kas mums visiem, iespējams, ir jāpierod, pareizi vai nepareizi.

Atpakaļ pie mūsu pasakas.

Kādu dienu pašbraucošā automašīna iekļūst avārijā.

Veicot labo pagriezienu, mākslīgā intelekta vadības sistēma autonomo transportlīdzekli plaši šūpoja un tika ietriekta cilvēka vadīta automašīna. Cilvēka vadītā automašīna brauca taisni uz priekšu pa pareizo satiksmes joslu. Cilvēka vadītājam nebija īpašu iespēju novirzīties vai izvairīties no trieciena. Turklāt pašbraucošā automašīna nebija brīdinājusi vai norādījusi, ka tā gatavojas plaši veikt labo pagriezienu.

Vai tas ir nelaimes gadījums?

Mēs noteikti varam teikt, ka tas ir ietverts AI negadījuma rubrikā. Šāda apgalvojuma pamatā ir tas, ka pie pašbraucošas automašīnas stūres atradās AI braukšanas sistēma. Kaut kādu iemeslu dēļ mākslīgais intelekts izvēlējās veikt plašu šūpošanos, veicot labo pagriezienu. Rezultāts noveda pie tā, ka pašbraucošā automašīna ietriecās cilvēka vadītā automašīnā.

Atgādiniet iepriekšējo diskusiju par konotācijām, kas saistītas ar vārdu “negadījums”, un noskaidrojiet, kā šāda pieskaņa izpaužas šajā scenārijā. Tāpat atcerieties, ka mēs apspriedām gadījumu, kad autovadītājs cilvēks veica platu labo pagriezienu un uzbrauc līdzcilvēka vadītai automašīnai. Mēs sapratām, ka priekšstats, ka šī darbība ir "negadījums", ir maldinošs un mulsinošs. Cilvēka vadītājs, kurš veica plašās šūpoles, varēja slēpties aiz domas, ka tikai noticis negadījums, kas šķietami noticis nejaušības vai likteņa prāta dēļ.

Tā vietā, lai apzīmētu scenāriju kā “MI negadījumu” gadījumā, ja uz mākslīgā intelekta balstīta pašbraucoša automašīna iet platumā un ietriecās cilvēka vadītajā automašīnā, iespējams, mums vajadzētu teikt, ka tā bija autoavārija vai automašīnas sadursme, kas saistīta ar pašbraucēju. braucoša automašīna un cilvēka vadīta automašīna. Tad mēs varam iztikt bez tukšas neskaidrības, ka tas ir nezināmu līdzekļu nejaušība.

Kāda, jūsuprāt, būtu sabiedrības reakcija uz notikušo?

Ja autoražotājs vai pašpiedziņas tehnoloģiju uzņēmums var pieturēties pie lietas nosaukšanas kā negadījuma, viņi, iespējams, spēs izvairīties no iespējamās sabiedrības pretreakcijām. Līdzjūtības sajūta par notikušajiem negadījumiem, iespējams, pārņems konkrētos apstākļus. Lai uzzinātu vairāk par to, kā pilsētas, apgabali un štatu vadītāji potenciāli reaģēs uz AI autonomo transportlīdzekļu negadījumiem, skatiet diskusiju par Hārvardas pētījumu, kuru es vadīju un kā aprakstīts vietnē saite šeit.

Ja situācija ir skaidri aprakstīta kā autoavārija vai automašīnas sadursme, iespējams, tas ļautu saprast, ka kāds vai kaut kas, iespējams, ir vainojams incidentā. Iespējams, ka AI ir jāuzņemas par atbildīgu. Lieta ir tāda, ka līdz brīdim, kad mēs kādreiz nolemsim AI atzīt par juridiskas personas līdzību, jūs nevarēsit uzlikt atbildību par AI kā tādu (skatiet manu diskusiju par AI un juridisko personu saite šeit).

Mēs varam pārbaudīt AI braukšanas sistēmu, lai mēģinātu noskaidrot, kas izraisīja šķietami nepiemērotu braukšanu un tai sekojošo autoavāriju. Tomēr tas nenozīmē, ka AI tiks saukta pie atbildības. Atbildīgās puses ir AI izstrādātāji, pašbraucošās automašīnas parka operators un citi. Iekļauju arī citus, jo pastāv iespēja, ka pilsēta varētu būt daļēji atbildīga par stūra, kurā notika pagrieziens, projektēšanu. Turklāt pieņemsim, ka gājējs metās no stūra un mākslīgā intelekta vadības sistēma izvēlējās izvairīties no personas un tomēr iekļuva autoavārijā.

Un tā tālāk.

Secinājumi

Mēs vēlamies zināt, ko AI aprēķina un kam tas bija ieprogrammēts. Vai AI darīja, kā bija kodēts? Iespējams, AI saskārās ar kļūdu vai kļūdu programmēšanā, kas neattaisno darbības, bet sniedz vairāk informācijas par to, kā notika avārija.

Kāda veida AI aizsargmargas tika ieprogrammētas AI braukšanas sistēmā? Ja būtu aizsargmargas, mēs vēlētos noskaidrot, kāpēc tās, šķiet, nenovērsa autoavāriju. Varbūt AI braukšanas sistēma varēja apstāties, nevis veikt pagriezienu. Mēs vēlamies uzzināt, kādas alternatīvas AI skaitļošanas veidā novērtēja incidenta laikā.

Papildus konkrētā incidenta būtībai, vēl viens pamatots jautājums ir par to, vai AI vadīšanas sistēmai ir kāds trūkums vai cits iegults aspekts, kas izraisīs līdzīga veida nelabvēlīgas darbības. Būtībā šis incidents varētu liecināt par gaidāmo notikumu attīstību. Kā tika izmantotas datorizētas braukšanas situāciju simulācijas, lai mēģinātu paredzēt šāda veida AI braukšanas sistēmas pamudinājumus? Vai bija pietiekami daudz braukšanas eksāmenu uz ceļa, lai noskaidrotu AI problēmas, kas varētu būt izraisījušas autoavāriju?

Šis scenārijs izceļ strīdīgu mīklu, ar kuru saskaras AI balstītu pašbraucošu automašīnu parādīšanās.

Tas notiek šādi.

No vienas puses, sabiedrībā valda vēlme ātri pieņemt pašbraucošas automašīnas, jo cer, ka mākslīgā intelekta braukšanas sistēmas būs tikpat drošas vai, iespējams, drošākas nekā cilvēku vadītāji. Amerikas Savienotajās Valstīs vien katru gadu autoavārijās iet bojā gandrīz 40,000 2.5 cilvēku un aptuveni XNUMX miljoni cilvēku tiek ievainoti. Analīzes liecina, ka liela daļa šo autoavāriju ir saistītas ar cilvēka kļūdām, piemēram, braukšanu reibuma stāvoklī, braukšanu, atrodoties izklaidīgi utt. (skatiet manu novērtējumu par šādu statistiku vietnē saite šeit).

AI braukšanas sistēmas nebrauks dzērumā. Viņiem nebūs vajadzīga atpūta, un viņi nenogurdinās, atrodoties pie stūres. Tiek pieņemts, ka, izveidojot pašpiedziņas automašīnas kā dzīvotspējīgu pārvietošanās veidu, mēs varam samazināt cilvēku vadītāju skaitu. Tas savukārt nozīmētu, ka mēs summāri samazināsim ikgadējās automašīnu avārijās bojāgājušo un ievainoto skaitu.

Daži eksperti ir teikuši, ka mēs beigsies ar nulli bojāgājušo un nulli ievainoto, un šīs pašbraucošās automašīnas, domājams, nebūs sasitāmas, taču tas ir pilnīgi absurds un pilnīgi nepareizs cerību kopums. Esmu paskaidrojis, kāpēc tas ir tik neprātīgi saite šeit.

Jebkurā gadījumā pieņemsim, ka mums būs zināms skaits autoavāriju, kurās iesaistīsies pašbraucošās automašīnas. Pieņemsim, ka arī šajās automašīnu avārijās būs zināms skaits bojāgājušo un ievainoto. Jautājums, par kuru tiek mokāts, ir par to, vai mēs kā sabiedrība vispār esam gatavi paciest šādus gadījumus. Daži saka, ka, ja patiesi pašbraucošu automašīnu rezultātā notiek kaut viens nāves gadījums vai viena trauma, viss komplekts un kaboodle ir jāslēdz.

Pretējs viedoklis ir tāds, ka, ja izglābtās dzīvības samazina ikgadējo skaitu, mums ir jāturpina veicināt pašbraucošu automašīnu parādīšanos, nevis jāreaģē tik neloģiski. Mums būs jāpieņem pieņēmums, ka zināms skaits bojāgājušo un ievainoto joprojām pastāvēs pat ar pašbraucošām automašīnām, un tomēr jāsaprot, ka ikgadējais skaits, ja tas tiek samazināts, liecina, ka esam uz pareizā ceļa.

Protams, daži iebilst, ka uz mūsu publiskajiem ceļiem nevajadzētu atrasties pašpiedziņas automašīnām, kamēr tās nav atļautas šādai lietošanai plašu un izsmeļošu datorizētu simulāciju rezultātā vai privātas slēgtas pārbaudes rezultātā. Pretarguments ir tāds, ka vienīgais dzīvotspējīgais un ātrākais veids, kā braukt ar pašbraucošām automašīnām, ir braukt pa koplietošanas ceļiem un ka jebkāda aizkavēšanās pašpiedziņas automašīnu pieņemšanā pretējā gadījumā ļaus turpināties šausminošajiem cilvēku vadītu automašīnu avāriju gadījumiem. Esmu plašāk apskatījis šīs debates savās slejās un mudinu lasītājus aplūkot šīs diskusijas, lai pilnībā izprastu šī strīdīgā jautājuma perspektīvas.

Pagaidām beigsim lietas.

AI negadījumi notiks. Mums ir jāatturas no impulsa interpretēt AI negadījumu kā šķietamu nejauši un ergo nepatiesi ļaujiet veidotājiem un tiem, kas izvieto AI, kategoriski atkāpties no āķa.

Ir pievienots pavērsiens, ko es atstāju kā pēdējo intriģējošu domu jūsu dienai.

Tiek ziņots, ka komiķis Dens Kuks stāstīja šo joku par autoavārijām: “Pāris dienas atpakaļ es iekļuvu autoavārijā. Nav mana vaina. Pat ja tā nav tava vaina, otrs izkāpj no savas mašīnas un skatās uz tevi tā, it kā tā būtu tava vaina: Kāpēc tu apstājies pie sarkanās gaismas un ļāvi man tevi notriekt, braucot ar 80!

Priekšplānā izvirzās iespēja, ka mākslīgā intelekta sistēma varētu izvēlēties uzstāt, ka tad, kad notiek AI negadījums, kurā ir iesaistīts konkrēts AI, AI norāda, ka incidentā ir vainojams cilvēks, nevis AI. Starp citu, tā varētu būt patiesība, un cilvēks, iespējams, mēģina padarīt par grēkāzi AI, apgalvojot, ka tā ir AI vaina.

Vai varbūt AI mēģina padarīt cilvēku par grēkāzi.

Redziet, mūsu izstrādātais mākslīgais intelekts var būt sarežģīts vai nu nejauši, vai ne.

Avots: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- brauc-auto-arī/