Ētiskais AI ambiciozi cer, ka mākslīgais intelekts pats apgūs ētisku uzvedību, piemēram, AI gadījumā autonomās pašbraucošās automašīnās

Aristotelis teica, ka prāta izglītošana bez sirds izglītošanas nav nekāda izglītība.

Jūs varētu interpretēt šo saprātīgo piezīmi, liekot domāt, ka ētikas un morālās uzvedības mācīšanās ir ļoti svarīga cilvēcei. Klasiskajās debatēs par dabu pret audzināšanu ir jājautā, cik daudz no mūsu ētiskajiem paradumiem ir instinktīvi iedzimti, bet cik daudz mēs esam iemācījušies dzīves laikā. Mazi bērni ir vērīgi pret līdzcilvēkiem un, iespējams, iegūst savus ētiskos pamatus, pamatojoties uz redzēto un dzirdēto. To pašu var teikt par pusaudžiem. Pieaugušie, kuriem ir atvērtas domas, arī viņi turpinās pielāgoties un progresēt savā ētiskajā domāšanā ikdienas pasaules pieredzes rezultātā.

Protams, arī nepārprotami mācīt kādam par ētiku ir arī kursa vērtība. Cilvēkiem ir jāmācās par ētiskiem paņēmieniem, apmeklējot nodarbības par šo tēmu vai, iespējams, apmeklējot viņus interesējošus pasākumus un praksi. Ētiskās vērtības var skaidri identificēt un kopīgot kā līdzekli, lai palīdzētu citiem formulēt savu ētikas struktūru. Turklāt ētika var būt smalki paslēpta stāstos vai citos mācību veidos, kas galu galā sniedz vēstījumu par to, no kā sastāv ētiskā uzvedība.

Šķiet, ka šādi cilvēki piesūcina ētiku.

Kā ar mākslīgo intelektu (AI)?

Es saprotu, ka šāds jautājums varētu šķist dīvains. Mēs noteikti sagaidām, ka cilvēki iekļaus ētiku un staigās pa dzīvi ar zināmu morāles kodeksa līdzību. Tas ir vienkāršs un acīmredzams fakts. No otras puses, šķiet, ka mašīna vai dators neietilpst tajā pašā atskaites sistēmā. Jūsu zarnu reakcija varētu būt tāda, ka ir neprātīgi vai dīvaini uzskatīt AI par ētikas un morāles kodeksu iemiesojumu.

Labākais, ko mēs, šķiet, varam darīt saistībā ar AI, ir izstrādāt to tā, lai tas nenovirzītos no ētiskas uzvedības. AI izstrādātāji un tie, kas nodarbojas ar AI, ir atbildīgi par to, lai AI, kas izstrādāta un ieviesta, jau atbilstu ētikas priekšrakstiem. Ārpus vārtiem, tā sakot, mākslīgajam intelektam jau vajadzētu būt senatnīgam un gatavam darbam kā pilnībā ētiski pareizam izgudrojumam.

Jums noteikti būtu taisnība, domājot, ka AI sistēmas patiešām ir jāveido tā, lai tās jau pilnībā atbilstu ētikas pamatiem. Sabiedrība bija diezgan satraukta, kad pirmo reizi tika izlaists jaunākais AI sistēmu vilnis, un tas šķita, ka mēs atrodamies laikmetā AI uz labu. AI palīdzētu atrisināt daudzas no pasaulē vissarežģītākajām problēmām. Tehnoloģiju sasniegumi tika izmantoti, lai papildinātu cilvēka spējas ar kognitīvām līdzīgām iekārtām, lai gan ļaujiet man uzsvērt, ka mums vēl nav jūtama AI un mēs nezinām, vai jutīgs AI tiks sasniegts.

Problēma, kas saistīta ar steigu, lai AI ienāktu pasaulē, ir pakāpeniski atklājusi AI neglīto apakšējo daļu, kas pazīstama kā AI For Bad. Ir bijuši daudz virsrakstu par AI sistēmām, kurās tiek izmantota algoritmiskā lēmumu pieņemšana (ADM), kas ir pārpilna ar aizspriedumiem un nevienlīdzību. Turklāt liela daļa mūsdienu mākslīgā intelekta cieš no caurredzamības trūkuma, mēdz būt neizskaidrojama, lai izskaidrotu skaitļošanas lēmumus, bieži vien nav godīga un ir ļāvusi dažiem novirzīt savu atbildību, rādot ar pirkstu uz AI.

Es savos rakstos esmu plaši aplūkojis ētisko AI un AI ētiku, tostarp saite šeit un saite šeit, tikai nosaukt dažus.

Kā var būt AI For Bad ja mēs uzskatām par noteiktu konstrukciju, ka AI ir jāizstrādā jau no paša sākuma, lai izvairītos no neētiskām darbībām?

Atbilde ir daudzkārtīga.

Pirmkārt, daudzi mākslīgā intelekta izstrādātāji un uzņēmumi, kas nodarbojas ar AI, paši nezina, cik svarīgi ir veidot savu AI, lai tas atbilstu ētikas robežām. Jēdziens nemaz nav viņu radarā. Ātras naudas pelnīšanas pievilcība liek dažiem virzīt uz priekšu jebkādus savvaļas mākslīgā intelekta jēdzienus, ko viņi vēlas apzināti radīt. Nav nepieciešams izdomāt nekādas ētiskas lietas. Vienkārši izveidojiet AI un sāciet to.

Otrkārt, ir tie, kas veido AI, kas izceļ tiešu izpratni par ētiskajām sekām, taču tie atklāti mazina vai ignorē ētiskos AI apsvērumus. Viena izplatīta perspektīva ir techie klasiskā mantra, kuras mērķis ir ātri un bieži neveiksmes. Vienkārši turpiniet atkārtošanu, līdz lietas, cerams, tiks pienācīgi sakārtotas. Izredzes sistemātiski un pārdomāti AI ētikas iekļaušanu šajos ātrajos AI pasākumos ir diemžēl niecīgas. Es apspriežu nepieciešamību stiprināt vadību ētiskā AI virzienā saite šeit.

Treškārt, pastāv daudz neskaidrību par to, kādi ētiskie aizsargmargas būtu jāņem vērā, izstrādājot AI. Protams, mūsdienās ir daudz AI ētikas vadlīniju, skatiet manu pārklājumu vietnē saite šeit, lai gan šos parocīgos teorētiskos priekšrakstus ir grūti pārvērst par konkrētās AI sistēmas specifiku, kas tiek veidota. Esmu norādījis, ka pamazām parādīsies AI veidošanas rīki un metodoloģijas, kas ietver ētiskas AI kodēšanas praksi, palīdzot novērst plaisu starp abstraktajiem aspektiem un sakāmvārdu aspektiem, kas sakrīt ar ceļu.

Ceturtkārt, saskaņā ar šeit norādīto uzsvaru mēs pētām ietekmēto AI gadījumu, kas, pat ja sākotnēji ir ietverts ētikas robežās, pēc tam lietošanas laikā novirzās ārpus pieņemtajiem ētiski kodētajiem parametriem.

Mums tas ir jāizpako.

Liela daļa mūsdienu AI izmanto mašīnmācīšanos (ML) un dziļo apmācību (DL). Tās ir skaitļošanas modeļu saskaņošanas metodes un tehnoloģijas. Parasti ideja ir tāda, ka jūs savācat kopā daudz atbilstošu datu neatkarīgi no tā, ko AI vajadzētu darīt, ievadāt šos datus izvēlētajā skaitļošanas modeļu saskaņotājā, un modeļu saskaņošana matemātiski mēģina atrast noderīgus modeļus. Ņemiet vērā, ka šim mākslīgajam intelektam nav nekādas izpratnes (kas, atkal, tādas lietas vēl nepastāv). Tāpat nav iesaistīta veselā saprāta spriešana. Tas viss ir matemātika un aprēķini.

Varētu būt, ka ML/DL ievadītie dati jau ir piesātināti ar aizspriedumiem un nevienlīdzību. Tādā gadījumā pastāv iespēja, ka skaitļošanas modeļu saskaņošana tikai atdarinās tās pašas tendences. Ja sniedzat datus, kas dod priekšroku vienai rasei vai vienam dzimumam salīdzinājumā ar otru, pastāv liela iespēja, ka modeļa atbilstība tiks izmantota kā atklātais modelis.

Liela problēma ar šāda veida bloķēšanu ir tā, ka mums varētu būt grūti saprast, ka modeļi ir balstīti uz šo datu aspektu. Sarežģītā un sarežģītā matemātika var padarīt šādu atrasto rakstu uzklāšanu diezgan problemātisku. Pat AI testēšana ne vienmēr atklās šīs tendences atkarībā no piemēroto testu diapazona un dziļuma.

Tātad, pieņemsim, ka esat izveidojis AI sistēmu un paveicis mājasdarbu, vispirms cenšoties izvairīties no tādu datu izmantošanas, kuriem bija iepriekšēja novirze. Pēc tam, kad bija veikta mašīnmācīšanās un padziļināta mācīšanās, jūs pārbaudījāt rezultātus, lai noskaidrotu, vai nav radusies kāda novirze vai nevienlīdzība. Pieņemsim, ka jūs nevarat atrast šādas nevēlamas tieksmes.

Kopumā tagad ir dota zaļā gaisma, lai turpinātu un nodotu AI lietošanā. Cilvēki sāks lietot AI un, visticamāk, pieņems, ka tas ir ētiski pareizi. To domā arī izstrādātāji. Tā uzskata uzņēmums, kas nodarbojas ar mākslīgo intelektu. Mēs visi ejam prom.

Lūk, kas var notikt.

Iespējams, tiek aktivizēta nojausma par novirzi, kas netika atrasta sākotnējos datos un kas netika konstatēta AI testēšanas laikā. Varbūt tas notiek tikai reti. Jūs varētu ticēt, ka tikmēr, kamēr tas notiek reti, viss ir kārtībā. Tomēr es šaubos, vai tie, kas ir neaizsargāti pret minēto neobjektivitāti, vēlas lietas redzēt tā. Es uzdrošinos apgalvot, ka mākslīgā intelekta sistēma un tie, kas to formulēja, saskarsies ar sekām vai nu tiesu tiesās, vai sabiedrības viedokļa atklātā tiesā.

Vēl viena variācija ir sakāmvārdā izplatītais jēdziens, ka paņemt collu un satverot jūdzi. Nojauta sākotnēji varētu būt niecīga. AI izmantošanas laikā AI, iespējams, tika izdomāts, lai mainītos pats notikumiem ejot. Šāda veida “mācīšanās” vai “pašmācīšanās” var būt diezgan noderīga. Tā vietā, lai cilvēku un mākslīgā intelekta izstrādātājiem būtu nepārtraukti jāmaina un jāpielāgo AI sistēma, mākslīgais intelekts ir izveidots, lai to izdarītu pats. Nav kavēšanās, nav dārga darbaspēka utt.

Šīs ērtās pašregulācijas negatīvā puse ir tāda, ka mākslīgā intelekta izmantošanas ietvaros tinte var kļūt arvien lielāka un lielāka. Lai gan neobjektivitāte varēja būt šaurā stūrī, tagad tai ir dota iespēja paplašināties. AI nešķiet, ka tas ir “nepareizi” un tikai skaitļošanas veidā paplašina kaut ko, kas, šķiet, darbojas.

Ja tas liek matiem stāvēt uz galvas, nākamajam variantam būs jāapsēžas.

Pieņemsim, ka neobjektivitāte nepastāvēja no sākuma, un mums ir pamatota pārliecība, ka mākslīgais intelekts ir pilnīgi bez novirzēm. Mums vai nu paveicās, vai arī, iespējams, sistemātiski pārliecinājāmies, ka datos nav nekādu aizspriedumu un ka tie neradās skaitļošanas modeļu saskaņošanas rezultātā. Neskatoties uz šo atvieglojuma nopūtu, AI ir atļauts pielāgoties lietošanas laikā. Pandoras durvis tiek atvērtas, un mākslīgais intelekts izvēlas skaitļošanas veidā pievērsties novirzēm, kas tiek konstatētas jebkurā AI darbības laikā.

Jaunatklātā neobjektivitāte tiek uztverta AI, un neviens nav īpaši gudrāks, ka tas ir noticis. Ak, mēs esam radījuši briesmoni, īstu Frankenšteinu.

Kā šo rašanos iespējams novērst vai vismaz atzīmēt?

Viena pieeja, kas kļūst arvien populārāka, ir ētikas noteikšanas komponenta iestrādāšana AI. AI ir izveidots, lai iekļautu ētiskos AI elementus. Šie elementi pēc tam skatās vai uzrauga pārējo AI, kamēr AI laika gaitā pielāgojas. Kad šķiet, ka mākslīgais intelekts ir pārsniedzis ieprogrammētos ētiskos priekšrakstus, ētiskais AI mēģina veikt šos pielāgojumus vai brīdina izstrādātājus, ka kaut kas ir nogājis nepareizi.

Varat mēģināt ieprogrammēt šo ētiskā AI pārraudzības spēju un cerēt, ka tā dominēs, kamēr AI tiks izmantota.

Vēl viens nedaudz pretrunīgs leņķis būtu mašīnmācības un padziļinātas mācīšanās izmantošana, lai AI sistēmā apmācītu ētiskos AI aspektus.

Ko tu teici?

Jā, iespējams, neparastā koncepcija ir tāda, ka tā vietā, lai programmētājs tieši kodē AI ētikas priekšrakstu kopumu, mākslīgais intelekts ir veidots tā, lai mēģinātu tos “mācīties”. Atgādiniet, ka es īsi atzīmēju, ka ML/DL izmantošana parasti ir atkarīga no datu ievadīšanas algoritmos un notiek skaitļošanas modeļu saskaņošana. Miljonu dolāru jautājums ir par to, vai mēs varam izmantot to pašu mehānismu, lai mākslīgā intelekta sistēmā iekļautu ētiskās vērtības.

Es domāju, ka jūs varētu to pielīdzināt manai diskusijai sākumā par to, kā cilvēki apzinās ētikas principus, lai gan, lūdzu, neantropomorfizējiet mūsdienu mākslīgo intelektu kā tādu, kas ir salīdzināms ar cilvēka domāšanu (tā nav, un es drīz atkārtošu šo pamudinājumu). AI var “iedzimts” ieprogrammēt ar ētiskiem AI priekšrakstiem. Vai arī AI varētu “iemācīties” ētiskus AI priekšrakstus. Protams, jūs varat darīt abus, ko es esmu aplūkojis citur, skat saite šeit.

Veltiet laiku, lai apdomātu šķietami satriecošo jēdzienu, ka AI varētu “mācīties” ētiku un tāpēc, iespējams, ievēros ētisku uzvedību.

Šie pētnieki izmanto AI sistēmas piemēru, kas nosaka vēlamo temperatūru mājā, lai ilustrētu, kā tas var darboties: "Tā vispirms tikai nedēļu" novēroja" cilvēku uzvedību dažādās mājsaimniecībās un izdarīja secinājumus par viņu vēlmēm. Pēc tam tas izmantoja kustības noteikšanas sensoru, lai noteiktu, vai kāds ir mājās. Kad māja bija tukša, viedais termostats pārgāja augstas enerģijas taupīšanas režīmā; kad cilvēki bija mājās, termostats regulēja temperatūru atbilstoši viņu vēlmēm. Šis termostats nepārprotami atbilst divām ētikas robota prasībām, kaut arī ļoti vienkāršai. Tas novērtē cilvēku vēlmes un uzliek tās apkures un dzesēšanas sistēmas vadības ierīcēm. Var jautāt, kāds tam sakars ar sociālajām morālajām vērtībām. Šis termostats ļauj cilvēkiem ar atšķirīgām vērtībām iestatīt vēlamos temperatūras iestatījumus. Mājas iedzīvotājiem nav nepieciešams katru dienu atiestatīt termostatu, ierodoties un dodoties. Šis vienkāršais ētikas robots samazina arī kopienas kopējo enerģijas pēdas nospiedumu” (saskaņā ar Amitai Etzioni un Oren Etzioni rakstu “AI Assisted Ethics” sējumā par Ētika un informācijas tehnoloģijas).

Pirms iedziļināties ar AI, kas “apgūst” ētisku uzvedību, līkločos, es vēlos pastāstīt vairāk par AI statusu.

AI var sastāvēt no šādiem iespējamiem stāvokļiem:

1. Mūsdienās nejūtīgs vienkāršais AI

2. Cilvēka kvalitātes jutīgs AI (mums pagaidām tāda nav)

3. Sajūta AI, kas ir īpaši inteliģenta (vairāk nekā 2.)

Es koncentrēšos uz esošo stāvokli, kas ir nejūtīgs, vienkāršs AI. Liela daļa no tā, ko jūs varētu lasīt par ētisko AI, dažkārt attiecas uz jutīgo AI, un tāpēc tas ir ļoti spekulatīvs. Es saku, ka tas ir spekulatīvi, jo neviens nevar piespraust ēzelim asti, kāds būs jūtīgais AI. Vēl tālāk par cilvēka kvalitātes jutīgo AI sfēru ir ļoti satriecošais superinteliģentais AI. Ir daudz zinātniskās fantastikas stāstu un šaubu par to, kā šīs mākslīgā intelekta garšas var nolemt paverdzināt cilvēci vai varbūt vienkārši iznīcināt mūs visus. To sauc par AI eksistenciālo risku. Reizēm dilemma tiek formulēta arī kā AI katastrofāls risks.

Daži apgalvo, ka ar mums varētu būt labi, ja AI saglabāsim nejūtīgo un veco AI, kāds mums ir šodien. Pieņemsim, ka mēs nevaram sasniegt jutīgu AI. Iedomājieties, ka neatkarīgi no tā, cik smagi mēs cenšamies izveidot jutīgu AI, mums tas neizdodas. Tāpat diskusiju labad pieņemsim, ka jūtīgs AI nerodas kāda noslēpumaina spontāna procesa rezultātā.

Vai tad mēs neesam droši, ka tiks izmantots šis mazāka kalibra AI, kas ir vienīgais iespējamais AI veids?

Ne īsti.

Diezgan daudz, iespējams, radīsies tās pašas vispārīgās problēmas. Es neapgalvoju, ka mākslīgais intelekts "domā" savu ceļu uz vēlmi mūs iznīcināt. Nē, parastais nejūtīgais mākslīgais intelekts ir vienkārši novietots varas pozīcijās, kas mūs iestrēgst pašiznīcināšanā. Piemēram, masu iznīcināšanas ieročos mēs ievietojam nejūtošu AI. Šie autonomie ieroči nav spējīgi domāt. Tajā pašā laikā cilvēki netiek pilnībā turēti cilpā. Rezultātā mākslīgais intelekts kā autonomas automatizācijas veids nejauši izraisa katastrofālus rezultātus vai nu cilvēka pavēles dēļ, vai kļūdas vai kļūdas dēļ, vai implantētas ļaundarības dēļ, vai pašregulācijas rezultātā, kas noved pie situācijas uz leju. neglīts ceļš utt.

Es apgalvoju, ka AI ētikas problēma pastāv visos trīs no šiem AI noteiktajiem stāvokļiem, proti, mums ir AI ētiskas problēmas ar nejūtīgu, vienkāršu AI, un ar jutīgu AI, kas ir vai nu tikai cilvēka līmenī, vai izstieptu AI, kas sasniedz. izslavētais superinteliģences līmenis.

Ņemot vērā šo satraucošo izteikumu, mēs noteikti varam diskutēt par apmēru un grūtībām, kas saistītas ar ētiskām problēmām katrā attiecīgajā AI līmenī. Pierasts uzskats ir tāds, ka mākslīgā intelekta ētikas problēma ir mazāk nepārvarama nejūtīgā AI, stingrāka jutīgam cilvēkam līdzvērtīgā AI līmenī un patiesi skrāpējama jūtīgā, superinteliģentā AI līmenī.

Jo labāks kļūst AI, jo sliktāka kļūst AI ētikas problēma.

Varbūt tas ir neaizskarams dabas likums.

Atgriežoties pie mūsdienu AI, mēģinājums panākt, lai AI “iemācītos” ētisku uzvedību, izmantojot mūsdienu mašīnmācīšanos un dziļo apmācību, ir pilns ar bažām un sarežģītām problēmām. Pieņemsim, ka mākslīgais intelekts nespēj apgūt vēlamos ētiskos priekšrakstus? Kā mēs noteikti zināsim, ka tas ir saslimis, to darot? Vai arī citas AI sistēmas daļas var ignorēt iegūtās ētiskās konstrukcijas? Pievienojiet tam, ka, ja AI pielāgojas lidojuma laikā, pielāgojumi var mazināt ētiskos aspektus vai netīšām tos pilnībā nomākt.

Vēl sliktāk, “mācīšanās” var novest pie AI piezemēšanās uz patiesi neētisku uzvedību. Lai gan mēs uzskatījām, ka rīkojamies pareizi, mudinot AI būt ētiski, izrādās, ka AI tā vietā slīdēja uz neētisko aspektu modeļu saskaņošanu. Runājiet par savas kājas šaušanu, tas var pilnīgi notikt.

Šajā šīs diskusijas posmā es varu derēt, ka vēlaties iegūt dažus papildu reālās pasaules piemērus, kas varētu izcelt, kā MI ētikas “mācīšanās” varētu attiekties uz mūsdienu AI (izņemot garšīgo termostata piemēra piezīmi).

Priecājos, ka pajautāji.

Ir īpašs un noteikti populārs piemēru kopums, kas man ir tuvs. Redziet, manā kā MI ekspertam, tostarp ētiskajām un juridiskajām sekām, man bieži tiek lūgts identificēt reālistiskus piemērus, kas parāda AI ētikas dilemmas, lai varētu vieglāk uztvert tēmas nedaudz teorētisko raksturu. Viena no visspilgtākajām jomām, kas spilgti atspoguļo šo ētisko AI problēmu, ir uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās. Tas kalpos kā ērts lietošanas gadījums vai paraugs plašai diskusijai par šo tēmu.

Šeit ir viens ievērības cienīgs jautājums, par kuru ir vērts padomāt: Vai uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās kaut ko izgaismo par to, ka AI spēj “iemācīties” ētiskos AI priekšrakstus, un, ja jā, ko tas parāda?

Ļaujiet man kādu brīdi izpakot jautājumu.

Pirmkārt, ņemiet vērā, ka īstā pašbraucošā automašīnā nav cilvēka vadītāja. Ņemiet vērā, ka patiesas pašbraucošas automašīnas tiek vadītas, izmantojot AI braukšanas sistēmu. Nav nepieciešams cilvēks pie stūres, kā arī nav paredzēts, ka cilvēks varētu vadīt transportlīdzekli. Manu plašo un pastāvīgo informāciju par autonomajiem transportlīdzekļiem (AV) un īpaši pašbraucošām automašīnām sk. saite šeit.

Es vēlētos vēl vairāk precizēt, kas ir domāts, runājot par patiesām pašbraucošām automašīnām.

Izpratne par pašbraucošo automašīnu līmeņiem

Kā paskaidrojums, patiesas pašpiedziņas automašīnas ir tādas, ka mākslīgais intelekts pilnībā vada automašīnu, un braukšanas uzdevuma veikšanai nav nepieciešama cilvēka palīdzība.

Šie bezvadītāja transportlīdzekļi tiek uzskatīti par 4. un 5. līmeni (skatiet manu skaidrojumu vietnē šī saite šeit), savukārt automašīna, kuras vadītājam ir jādalās braukšanas piepūlē, parasti tiek uzskatīta par 2. vai 3. līmeni. Automašīnas, kas kopīgi veic vadīšanas uzdevumu, ir aprakstītas kā daļēji autonomas, un parasti tajās ir dažādas automatizēti papildinājumi, kas tiek saukti par ADAS (Advanced Driver-Assistance Systems).

5. līmenī vēl nav īstas pašbraucošas automašīnas, par kurām mēs pat nezinām, vai to būs iespējams sasniegt, un arī cik ilgs laiks būs vajadzīgs, lai tur nokļūtu.

Tikmēr 4. līmeņa centieni pakāpeniski mēģina iegūt zināmu saķeri, veicot ļoti šauru un selektīvu koplietošanas ceļu izmēģinājumus, lai gan pastāv strīdi par to, vai šī pārbaude ir jāatļauj per se (mēs visi esam dzīvības vai nāves jūrascūciņas eksperimentā kas notiek uz mūsu lielceļiem un blakusceļiem, daži apgalvo, skatiet manu pārklājumu vietnē šī saite šeit).

Tā kā pusautomātiskajām automašīnām ir nepieciešams autovadītājs, kas izmanto cilvēku, šāda veida automašīnas pieņemšana ievērojami neatšķirsies no parastā transporta līdzekļa vadīšanas, tāpēc per se nav daudz jaunu, lai par tām runātu par šo tēmu (lai gan, kā redzēsit pēc brīža nākamie punkti parasti ir piemērojami).

Pusautonomām automašīnām ir svarīgi, lai sabiedrība tiktu brīdināta par satraucošu aspektu, kas rodas pēdējā laikā, proti, ka, neskatoties uz tiem autovadītājiem, kas turpina publicēt video, kā viņi aizmiguši pie 2. vai 3. līmeņa automašīnas stūres , mums visiem jāizvairās no maldināšanas, uzskatot, ka vadītājs, vadot daļēji autonomu automašīnu, var novērst uzmanību no braukšanas uzdevuma.

Jūs esat atbildīgā persona par transportlīdzekļa vadīšanas darbībām neatkarīgi no tā, cik daudz automatizācijas var iemest 2. vai 3. līmenī.

Pašbraucošas automašīnas un ētiska mākslīgā intelekta potēšana

4. un 5. līmeņa īstiem pašpiedziņas transportlīdzekļiem braukšanas uzdevumā nebūs iesaistīts autovadītājs.

Visi pasažieri būs pasažieri.

AI veic braukšanu.

Viens aspekts, kas nekavējoties jāapspriež, ietver faktu, ka AI, kas iesaistīts mūsdienu AI braukšanas sistēmās, nav jūtīgs. Citiem vārdiem sakot, AI kopumā ir datorizētas programmēšanas un algoritmu kolektīvs, un, protams, tas nespēj spriest tāpat kā cilvēki.

Kāpēc šis papildu uzsvars tiek likts uz to, ka AI nav jūtīgs?

Tā kā es gribu pasvītrot, ka, apspriežot AI braukšanas sistēmas lomu, es nepiešķiru AI cilvēka īpašības. Lūdzu, ņemiet vērā, ka mūsdienās pastāv un ir bīstama tendence antropomorfizēt AI. Būtībā cilvēki piešķir mūsdienu cilvēka intelektu mūsdienu AI, neskatoties uz nenoliedzamu un neapstrīdamu faktu, ka šāda AI vēl nav.

Izmantojot šo precizējumu, jūs varat iedomāties, ka AI braukšanas sistēma dabiski kaut kā “nezinās” par braukšanas aspektiem. Braukšana un viss, kas ar to saistīts, būs jāprogrammē kā daļa no pašpiedziņas automašīnas aparatūras un programmatūras.

Iegremdēsimies neskaitāmos aspektos, kas nāk par šo tēmu.

Pirmkārt, ir svarīgi saprast, ka ne visas AI pašbraucošās automašīnas ir vienādas. Katrs autoražotājs un pašpiedziņas tehnoloģiju uzņēmums izmanto savu pieeju, lai izstrādātu pašbraucošas automašīnas. Tādējādi ir grūti sniegt visaptverošus paziņojumus par to, ko AI vadīšanas sistēmas darīs vai nedarīs.

Turklāt ikreiz, kad tiek apgalvots, ka AI vadīšanas sistēma nedara kādu konkrētu lietu, to vēlāk var apsteigt izstrādātāji, kuri faktiski programmē datoru, lai to izdarītu. Soli pa solim AI braukšanas sistēmas tiek pakāpeniski uzlabotas un paplašinātas. Esošais ierobežojums šodien, iespējams, vairs nepastāvēs turpmākajā sistēmas iterācijā vai versijā.

Es ticu, ka tas sniedz pietiekamu iebildumu litāniju, lai pamatotu to, ko es drīzumā stāstu.

Šobrīd esam gatavi padziļināti izpētīt pašbraucošos automobiļus un ētiskās mākslīgā intelekta iespējas, kas ietver uzacis raisošu apgalvojumu, ka mēs varam panākt, lai mākslīgais intelekts pats par sevi “mācītos” par ētisku uzvedību.

Izmantosim viegli saprotamu piemēru. Uz AI balstīta pašbraucoša automašīna atrodas jūsu apkārtnes ielās, un šķiet, ka tā brauc droši. Sākumā jūs bijāt īpašu uzmanību veltījis katrai reizei, kad izdevās acīs redzēt pašbraucošo automašīnu. Autonomais transportlīdzeklis izcēlās ar savu elektronisko sensoru plauktu, kas ietvēra videokameras, radara blokus, LIDAR ierīces un tamlīdzīgus elementus. Pēc daudzām nedēļām, kad pašpiedziņas auto braukāja pa jūsu kopienu, jūs to tik tikko pamanāt. Ciktāl jums tas attiecas, tā ir tikai vēl viena automašīna uz jau tā noslogotajiem koplietošanas ceļiem.

Lai jums nešķiet, ka ir neiespējami vai neticami iepazīties ar pašbraucošo automašīnu redzēšanu, esmu bieži rakstījis par to, kā vietas, kas ir pašbraucošo automašīnu izmēģinājumu ietvaros, pamazām ir pieradušas redzēt izsmalcinātus transportlīdzekļus, skatiet manu analīzi vietnē šī saite šeit. Daudzi vietējie iedzīvotāji galu galā pārgāja no aizrautīgās raudāšanas uz muti, bet tagad izstaro plašu garlaicības žāvas sajūtu, lai redzētu šīs līkumotās pašbraucošās automašīnas.

Iespējams, šobrīd galvenais iemesls, kāpēc viņi varētu pamanīt autonomos transportlīdzekļus, ir kairinājuma un sašutuma faktors. Pašreizējās AI braukšanas sistēmas nodrošina, ka automašīnas ievēro visus ātruma ierobežojumus un ceļu satiksmes noteikumus. Tradicionālie cilvēku vadītie autovadītāji, kuri brauc ar savām tradicionālajām cilvēku vadītajām automašīnām, dažkārt ir sašutuši, kad ir iestrēguši aiz strikti likumpaklausīgām AI pašbraucošām automašīnām.

Tas ir kaut kas, kas mums visiem, iespējams, ir jāpierod, pareizi vai nepareizi.

Atpakaļ pie mūsu pasakas. Pieņemsim, ka kādu dienu jūsu pilsētā vai pilsētā brauc pašbraucoša automašīna un nonāk situācijā, kad gājējs gaida, lai šķērsotu ceļu. Pieņemsim, ka gājējam pašam nav priekšroka. Cilvēka vadīta automašīna varētu braukt garām gājējam un to darīt pilnīgi likumīgi. Tāpat AI braukšanas sistēma likumīgi var iet garām gaidošajam gājējam.

Vadītājs var brīvi izvēlēties, vai apstāties un ļaut gājējam iet pāri ielai neatkarīgi no tā, vai viņš ir cilvēks vai AI braukšanas sistēma.

Esmu pārliecināts, ka esat saskāries ar šāda veida situāciju neskaitāmas reizes. Varbūt jūs steidzaties, tāpēc neapstājaties, lai gājēju pārietu. Citā gadījumā jums ir daudz laika, lai nokļūtu galamērķī, tāpēc jūs izvēlaties apstāties un ļaut gaidītājam iet pāri ielai. Jūsu garastāvoklis un īpašie apstākļi nosaka, ko jūs izvēlēsities darīt.

Nekas šajā scenārijā nešķiet neparasts vai satraucošs.

Pirms es izpētu lietu AI pusi, jūs varētu interesēt zināt, ka šis konkrētais rīcības brīvības aspekts, kas ļauj gājējam šķērsot ielu, ir rūpīgi izpētīts. Pētnieki ir atklājuši, ka dažkārt autovadītāja izvēle var būt atkarīga no rases vai dzimuma aizspriedumiem. Cilvēka vadītājs var palielināt gaidošā gājēja izmēru un izvēlēties ļaut personai šķērsot, jo šķietami balstās uz vadītāja neobjektivitāti. Tas, vai vadītājs vispār saprot, ka to dara, ir nepārtrauktas izpētes jautājums. Skatiet manu pārklājumu vietnē šī saite šeit.

Esmu izveidojis priekšnoteikumus mūsu izpētei, ko AI braukšanas sistēma varētu darīt gājēju pārejas situācijā.

Parastā mākslīgā intelekta programmēšana var novest pie tā, ka AI izstrādātāji nolemj vienmēr likt AI braukšanas sistēmai apstāties un ļaut gājējam šķērsot. Šķiet, ka tā ir ētiski pareiza vai pilsoniska rīcība. Automašīna, kas brauc ar pašpiedziņu, padodas gaidošajam cilvēkam, kurš vēlas šķērsot ielu.

Es uzdrošinos teikt, ka, ja jūs būtu pasažieris pašpiedziņas automašīnā un mākslīgais intelekts vienmēr būtu apstājies, lai gaidītu gājējus pēc saviem ieskatiem, jūs varētu sajukt prātā. Jūsu ātrais ceļojums uz pārtikas veikalu var aizņemt vairākas reizes ilgāku laiku. Atcerieties arī, ka mēs nerunājam par gājējiem, kuriem ir likumīgas tiesības šķērsot, jo šādos gadījumos, iespējams, AI jau ir ieprogrammēts vienmēr atļaut. Mēs koncentrējamies tikai uz diskrecionāriem apstākļiem.

Šai deklarācijai vienmēr apstāties, lai ļautu gājējiem šķērsot ielu, ir arī vairāk negatīvo aspektu.

Tie, kas ražo un izmanto uz AI balstītas pašbraucošas automašīnas, vēlas, lai cilvēki tajās brauc. Ideja ir tāda, ka, izmantojot pašbraucošas automašīnas, mēs varētu samazināt ikgadējo autoavāriju skaitu, kas pašlaik tikai ASV vien izraisa aptuveni 40,000 2.5 nāves gadījumu un XNUMX miljonus ievainojumu. Skatiet manu statistikas kolekciju vietnē šī saite šeit. Papildus šim cienījamam sabiedrības mērķim, automobiļu ražotāji un pašbraucošo tehnoloģiju ražotāji, protams, cer arī nopelnīt naudu no saviem AI darbiem.

Es to aktualizēju, jo cilvēki var nolemt nebraukt pašbraucošās automašīnās, ja AI braukšanas sistēma dara lietas, kas nevajadzīgi galu galā aizkavē braucienus. Jebkurš ikdienišķs cilvēks domā, ka, tā vietā izvēloties cilvēka vadītāju, ceļojums varētu būt ātrāks, un tāpēc, izvēloties AI pašbraucošu automašīnu, viņa izvēles sarakstā varētu būt ļoti zema vieta. Tas savukārt nozīmētu, ka mēs nesasniegsim vēlamo autoavāriju samazināšanos, kā arī to, ka ražotāji varētu uzskatīt, ka viņu izstrādājumi ir nerentabli.

Ņemot vērā šo argumentu kopumu, jūs varētu likties domāt, ka mākslīgā intelekta darbībai nekad nevajadzētu apstāties, kad notiek nejaušs gadījums, kad gājējs vēlas šķērsot ielu. Vienkārši ieprogrammējiet AI braukšanas sistēmu, lai tā darītu visu, kas ir stingri likumīgs. Ja nav likumā noteiktas prasības ļaut gājēju pāri, tad tam gaidošajam gājējam smaga veiksme. Iespējams, personai vajadzētu doties uz šķērsošanas vietu, kas nodrošina juridisku pamatu AI apturēt pašbraucošo automašīnu.

Vai varat iedomāties kliedzienu par šo?

Cilvēki jūsu pilsētā pamazām atklāj, ka mākslīgā intelekta pašbraucošās automašīnas nekad neļaus gājējam šķērsot to. Tas sasodīti aizkaitināmais AI! Tas ir tā, it kā mākslīgais intelekts sita ar īkšķi cilvēkiem. Slikti audzināts nejēdzīgas automatizācijas gabals. Turklāt iedomājieties, ka ir dokumentēti apstākļi, kad gājējiem izmisīgi nepieciešams šķērsot, un mākslīgais intelekts nemaz neapstājas.

Tikmēr cilvēki autovadītāji labprāt apstājās, lai ļautu šiem "izmisušajiem" cilvēkiem droši nokļūt pāri ielai.

Šī sašutuma dēļ mākslīgā intelekta pašbraucošās automašīnas vairs netiek gaidītas jūsu atrašanās vietas ielās un blakusceļos. Pilsētas vadītāju izsniegtās atļaujas tiek atsauktas. Nepateicīgo brutālu noņemšana no mūsu ceļiem ir vokāla kliedziens.

Šķiet, ka mēs atrodamies starp akmeņu un cietu vietu. AI ne vienmēr vajadzētu ļaut diskrecionāram gājējam šķērsot (ne vienmēr apstāties). AI ne vienmēr vajadzētu novērst gājēju pāreju no izvēles (ne vienmēr tuviniet garām). Ko darīt?

Acīmredzamā atbilde būtu ieprogrammēt AI rīkoties pēc saviem ieskatiem.

Es lūdzu jūs apsvērt ADM (algoritmisko lēmumu pieņemšanu), no kura tam vajadzētu sastāvēt. Vai mākslīgais intelekts mēģinās noteikt gājēja raksturu un izmantot saskatītās īpašības kā pamatu, lai izlemtu, vai apturēt pašbraucošo automašīnu? Varbūt kāds vecāks izskats ir veids, kā izvēlēties. Bet vai tā ir vecuma diskriminācija? Un tā tālāk.

Iespējams, AI braukšanas sistēma ir ieprogrammēta tā, lai tā apstātos dienas gaišajā laikā un nekad neapstājas nakts laikā. Iespējams, ka loģika ir tāda, ka pašpiedziņas automašīnas braucējiem drošāk tiek uzskatīts, ka autonomais transportlīdzeklis apstājas dienas laikā, bet ne trakākajās vakara stundās.

Tas varbūt izklausās saprātīgi. Daļa no problēmas būs gājēju cerības. Lūk, ko es domāju. Gājēji redz, kā mākslīgā intelekta pašbraucošas automašīnas apstājas, lai dotos uz brīvām pārejām, kas notiek dienasgaismā. Gājēji nezina, kādus kritērijus AI izmanto, lai nolemtu apstāties. Daži gājēji pieļauj, ka mākslīgais intelekts vienmēr apstāsies (neapzinoties, ka dienasgaisma pret nakti ir patiesais noteicējs). Rezultātā tie gājēji, kuri uzskata, ka pašbraucošā automašīna vienmēr apstāsies, izmantos iespēju un sāks šķērsot, kad mākslīgā intelekta braukšanas sistēma nemaz netiecas apstāties (kas, visticamāk, AI apstātos, ja gājējs ieiet uz ielas, lai gan tas varētu būt apdomīgi, un fizika var neļaut mākslīgajam intelektam apturēt pašbraucošo automašīnu, lai nepietiktu laika, lai izvairītos no šķietami “kļūmīgā” gājēja notriekšanas).

Pieņemsim, ka mākslīgā intelekta izstrādātāji un uzņēmumi, kas jūsu pilsētā veido un laiž tirgū pašpiedziņas automašīnas, nav pārliecināti par to, kā AI uzlabot šo lietu.

Viņi nolemj “apmācīt” AI, izmantojot datus, kas savākti no visas lokalizācijas. Izrādās, ka pilsētā ir daudz kameru, kas ir fiksējušas automašīnu atnākšanu un aizbraukšanu visā ciematā. Šie dati parāda daudzus gadījumus, kad gājēji vēlas šķērsot ielu pēc izvēles. Visi dati tiek ievadīti mašīnmācīšanās un padziļinātās mācīšanās sistēmā, lai iegūtu to, kas tiek uzskatīts par ierastu šajā jurisdikcijā.

Vai mēs apmācām mākslīgo intelektu, lai tas darītu to, kas ir jādara vietējā ētikas paradumos?

Citiem vārdiem sakot, ja konkrētajā pilsētā būtu vietējā kultūra, kas vairāk tiecas apstāties un ļaut gājējiem šķērsot, par ko liecina cilvēka vadītāja rīcība, ML/DL, iespējams, aprēķinos izmantotu šo modeli. Pēc tam mākslīgais intelekts būtu apmācīts rīkoties tāpat. Otrā galējībā, ja cilvēku vadītāji reti apstājas, mākslīgais intelekts, iespējams, iegūtu šo “mācību” no datu skaitļošanas analīzes. AI darīs tāpat kā cilvēki.

Apgalvojums ir tāds, ka datos tiek atspoguļota cilvēku ētiskā uzvedība un ka mākslīgais intelekts ar skaitļošanas analīzi ieviesīs tos pašus ētiskos priekšrakstus. Ētiķis to parasti raksturotu kā komunitāru pieeju ētikai. Kopienas kopīgās vērtības atspoguļojas visas kopienas centienos.

Tas varētu šķist lielisks risinājums.

Diemžēl ir daudz nepilnību.

Viena, iespējams, acīmredzama problēma ir tā, ka cilvēku vadītāji, iespējams, jau izmanto zināmu neobjektivitāti, izvēloties apstāties vai neapstāties (kā minēts iepriekš). AI tad būs šo aizspriedumu kopija. Vai mēs vēlamies, lai tas tā būtu?

Apsveriet citu problēmu. Pieņemsim, ka autovadītāji nevar viegli pieņemt AI pašbraucošo automašīnu darbību. Tikai tāpēc, ka cilvēki, teiksim, bija gatavi apstāties, tas var nebūt vienlīdz pieņemts attiecībā uz pašbraucošām automašīnām. Varētu būt, ka cilvēku vadītājus sanikno mākslīgā intelekta pašbraucošās automašīnas, kas nepārtraukti apstājas gājēju priekšā, lai gan tas pats notiek ar cilvēku vadītājiem, taču šķiet, ka tas netraucē cilvēku vadītājiem.

Papildus tam, ka tas ir satraucošs, jūs varat arī uzburt iespējamību, ka cilvēki vadītāji netīšām iegriežas aizmugurē pašbraucošas automašīnas. Ja cilvēks vadītājs nav gaidījis, ka pašbraucošā automašīna apstāsies gājējam, un ja cilvēka vadītā automašīna atrodas tieši aiz pašbraucošas automašīnas, var rasties nopietna cerību neatbilstība. AI braukšanas sistēma apstādina pašbraucošo automašīnu. Cilvēka vadītājs nebija paredzējis šo darbību. Cilvēka vadītājs uztriecas pašbraucošajai automašīnai. Notiek traumas un, iespējams, nāves gadījumi.

Es apzināti norādīju uz cilvēku kaitējuma iespējamību.

Gājējs, kas šķērso ielu, īsumā varētu šķist mazsvarīgs jautājums. Šķiet, ka neviens nevar tikt ievainots neatkarīgi no tā, kādu metodi AI izvēlas apturēt vai neapstāties. Nepareizi! Pastāv iespēja, ka gājējs tiks sabraukts. Pastāv iespēja, ka cilvēka vadīta automašīna ietriecās pašbraucošajā automašīnā. Cilvēka vadītās automašīnas vadītājs un pasažieri var gūt traumas. Pašpiedziņas automašīnas braucēji var tikt savainoti. Iespējamā cilvēka kaitējuma papildu permutācijas ir viegli paredzētas.

Secinājumi

Runājot par cilvēku nodarīto kaitējumu, es jums pateikšu kaut ko citu, lai jūsu prāts būtu satraukts par šo ētisko AI mīklu.

Ziņu sižets vēstīja, ka kāds vīrietis ar automašīnu iebraucis krustojumā un tam devies zaļā gaisma. Cita cilvēka vadīta automašīna izvēlējās braukt pie krustojuma sarkanās gaismas un nelegāli un nedroši netraucēti iebrauca krustojumā, draudot satriekt likumīgi braucošo automašīnu.

Autovadītājs žurnālistiem stāstīja, ka viņam bija jāizvēlas, vai izturēt triecienu, vai arī viņš var novirzīt savu automašīnu, lai, cerams, izvairītos no sadursmes, taču tuvumā atradās gājēji un novirzīšanās var apdraudēt šos cilvēkus. Ko tu darītu? Varat izvēlēties, kā notriekti šo draudošo automašīnu, un varbūt dzīvot, lai pastāstītu par to. Vai arī varat mēģināt izvairīties no notriekšanas, bet tikmēr, iespējams, notriekt nevainīgus gājējus.

Lielai daļai mūsu ikdienas braukšanas ir jāpieņem tādi ētiski milzīgi un tūlītēji lēmumi. Esmu to ilgi apspriedis, kā arī šo lēmumu par braukšanu uz dzīvību vai nāvi saistīšanu ar slaveno vai, daži saka, bēdīgi slaveno ratiņu problēmu, skatiet manu izvērsumu vietnē saite šeit.

Nomainiet cilvēku vadītāju šajā scenārijā ar AI vadīšanas sistēmu.

Ko jūs vēlaties, lai AI dara?

Tas ir mulsinošs jautājums.

Viena pieeja ir ieprogrammēt AI tā, lai tā veiktu tīri taisnas braukšanas darbības, tādējādi pat skaitļošanas veidā neapsverot citas iespējas, piemēram, novirzīšanos no iespējamās avārijas. Es paredzu, ka pašpiedziņas automašīnu braucēji būs sarūgtināti, uzzinot, ka mākslīgais intelekts nav izdomāts, lai darītu neko citu, kā tikai gūtu triecienu. Var sagaidīt tiesas prāvas un sacelšanos.

Cita pieeja būtu mēģināt ieprogrammēt AI, lai ņemtu vērā dažādas iespējas. Kurš gan var izveidot ADM, kas izlemj, kādā virzienā virzīsies AI braukšanas sistēma? Šķiet, ka ļaut mākslīgā intelekta izstrādātājiem pašiem pieņemt tik svarīgus lēmumus, ir daudz bažu.

Jūs varētu mēģināt ļaut AI “mācīties” no cilvēka braukšanas datiem, kas savākti ikdienas satiksmes situācijās. Tas ir līdzīgs gājēju pārejas dilemmai un iepriekš ieteiktajai idejai izmantot apkopotos datus, lai mākslīgais intelekts varētu iegūt jebkādus vietējos ētikas paradumus. Par to ir daudz brīdinājumu, piemēram, vai ML/DL atklātie modeļi ir piemēroti vai nē, utt.

Es arī iepriekš biju brīdinājis, ka atkarībā no iesaistītajiem ētikas paradumiem pastāv iespēja, ka mākslīgais intelekts atklās, iespējams, neētisku uzvedību. Piemēram, pieņemsim, ka mākslīgais intelekts kaut kādā veidā nokļuva skaitļošanas shēmā, lai vienmēr mērķētu uz gājējiem ikreiz, kad kāda cita automašīna draud ietriekties pašbraucošajai automašīnai.

Oho, uzmanieties gājēji, jūs būsiet gatavi mērķi.

Laiks beigt diskusiju un darīt to ar iepriecinošu pēdējo domu.

Jūs, iespējams, zināt, ka Īzaks Asimovs ierosināja savus “Trīs robotikas likumus” 1950. gadā, un mēs joprojām esam aizrāvušies ar šiem pasludinātajiem noteikumiem. Lai gan šķiet, ka noteikumi ir viegli izpildāmi, piemēram, ka mākslīgā intelekta sistēma vai robots nedrīkst nodarīt kaitējumu cilvēkam un neļaut cilvēkam nodarīt kaitējumu, ir daudzas būtiskas nianses, kas padara šo sarežģīto un dažkārt nepieņemamu, skatiet manu analīzi. plkst saite šeit.

Jebkurā gadījumā, šeit ir kaut kas cits, ar ko Asimovs ir pazīstams, lai gan mazāk: "Nekad neļaujiet savai morāles izjūtai traucēt rīkoties pareizi."

Attiecībā uz ētisko AI, kuru mēs visi ceram izveidot, mums jāpatur prātā, ka AI ētika var nebūt tāda, kādu mēs gaidījām, un ka AI tomēr būs jādara viss, kas ir pareizi. Asimovs to labi pateica. Jau ilgi pirms tam Aristotelis, šķiet, domāja diezgan līdzīgus uzskatus.

Avots: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- korpuss ar autonomām pašbraucošām automašīnām/