AI ētikas un autonomo sistēmu mācības, kas iegūtas no šī nesenā Alaska Airlines lidojuma, kurā pilots un otrais pilots pirms pacelšanās nepiekrita, un pēkšņi izvēlējās braukt ar taksometru atpakaļ uz termināli un doties pa atsevišķiem ceļiem

Pēdējā laikā ziņas par aviokompānijām ir bijušas diezgan daudz.

Esam vasaras lidojumu krīzē. Nogurušie un neapmierinātie pasažieri saskaras ar visa veida lidojuma traucējumiem un aviokompāniju grafiku sagrozīšanu. Lidojumi tiek negaidīti atcelti. Lidojumi kavējas. Pasažieru dūmi. Diemžēl ir bijuši daudzi gadījumi, kad pasažieri ir ļāvuši izcelties šiem satraukumiem, un mēs esam redzējuši pārāk daudz vīrusu videoklipu, kuros redzamas savstarpējas konfrontācijas un dažkārt dūres.

Retāk mēs uzzinām par strīdiem starp pilotu un otro pilotu, kas varētu rasties, atrodoties kabīnē.

Tas ir diezgan liels pārsteigums.

Patiešām, mēs, protams, esam pārsteigti, domājot, ka pilotam un otrajam pilotam jebkurā lidojuma posmā varētu rasties nopietnas nesaskaņas. Ja domstarpības ir par to, kura kafija ir vislabākā, mēs pieņemam, ka tas neietekmēs darbu, kas saistīts ar lidošanu ar lidmašīnu. Abi vienkārši paraustītu plecus par to, ka viņiem nav aci pret aci par šķietami nebūtisku tēmu. Viņu profesionālā izturēšanās un ilggadējā pilotu apmācība iedarbosies, un viņi atkal pievērsīs uzmanību lidojuma detaļām.

Tomēr apsveriet, kad a profesionālas nesaskaņas iejaucas.

Es īsumā dalīšos ar jums plaši publicētu ziņu par neseno gadījumu, kas noticis lidojuma laikā ASV saistībā ar apgalvotām profesionālām nesaskaņām kabīnē.

Tas galvenokārt tiek citēts šeit, lai mēs varētu izpētīt saistītu tēmu, kas ir ļoti svarīga mākslīgā intelekta (AI) parādīšanās procesā. Redzi, var būt profesionālas domstarpības ne tikai starp cilvēkiem cilvēku savstarpējās domstarpībās, bet kaut kas līdzīgs var notikt arī mākslīgā intelekta pārņemšanas laikā un līdz ar to cilvēku un mākslīgā intelekta profesionālās nesaskaņas. . Rodas dažādi AI ētikas apsvērumi. Manu plašo un pastāvīgo informāciju par AI ētiku un ētikas AI jautājumiem skatiet saite šeit un saite šeit, tikai nosaukt dažus.

Sagatavojieties aizraujošai pasakai.

Kā nesen tika ziņots ziņās, "profesionālu nesaskaņu" gadījums acīmredzot radās Alaska Airline lidojuma laikā, kas devās no Vašingtonas uz Sanfrancisko. Saskaņā ar ziņām, lidmašīna bija attālinājusies no vārtiem un gaidīja uz asfalta, lai saņemtu atļauju taksometram un lidojumam. Sākās vētra, kuras dēļ lidojums aizkavējās par vairāk nekā pusotru stundu. Izrādās, ka lidmašīna galu galā apgriezās un devās atpakaļ uz vārtiem, ko daži pasažieri parasti varēja uzskatīt, ka tas ir vienkārši ar vētru saistīts drošības pasākums.

Saskaņā ar dažādiem tviteriem, šķiet, ka pilotam un otrajam pilotam, atrodoties kabīnē, bija kaut kāds ķildas ārpus redzesloka un viņi kaut kādā veidā nonāca pie secinājuma, ka vispiesardzīgākā pieeja būtu notīrīt lidojumu un atgriezties terminālī. . Tvītos tika norādīts, ka kapteinis un pirmais virsnieks acīmredzot nevarēja saprasties viens ar otru. Aviokompānija vēlāk nāca klajā ar paziņojumu, ka situācija bija neveiksmīga (situācija pati par sevi netika skaidri norādīta vai izskaidrota), vadība novērtēja abus lidojumu virsniekus un atzina, ka viņi ir piemēroti lidošanai, apkalpes tika nomainītas, un lidojums notika. un vēlāk sasniedza Sanfrancisko.

Savā ziņā, ja patiesībā pilotam un otrajam pilotam ir radušās profesionālas domstarpības, piemēram, vai lidmašīna ir atbilstoši gatava lidojumam vai arī risks lidot vētras laikā ir atbilstošā drošības diapazonā, šiem pasažieriem ir jābūt atbrīvotiem un pateicīgs, ka lidmašīna tika atgriezta pie vārtiem. Labāk būt drošam nekā nožēlot. Papildu kavēšanās ir tā vērta, lai varētu samazināt riskus, kas saistīti ar uzskatītu nelīdzenu vai nelabvēlīgu lidojumu.

Daži cilvēki varētu būt pārsteigti, ka var rasties šādas profesionālas nesaskaņas.

Iespējams, mums ir maldīgs priekšstats, ka viss, kas notiek kabīnē, ir pilnīgi precīzs un labi rakstīts. Visa veida cilvēka rīcības brīvība šķietami ir izspiesta no procesa. Pamatojoties uz precīzām un rūpīgi aprēķinātām kartēm, lidojumu var turpināt vai arī ne. Nevar būt nekādu domstarpību, ja tiek uzskatīts, ka viss komplekts un kaboodle ir balstīti uz neapgāžamu faktu un skaitļu aprēķinu.

Tā nav visa lietas patiesība. Protams, ir milzums protokolu un visu veidu pārbaudes un līdzsvars, taču tas neizspiež visu cilvēcisko spriedumu. Piloti un otrais pilots joprojām izmanto cilvēka spriedumu. Par laimi, šis cilvēka spriedums ir noslīpēts, gadiem ilgi lidojot. Izredzes ir tādas, ka komerciālās pasažieru lidmašīnas pilotam un otrajam pilotam ir iepriekšēja lidojuma pieredze un viņi viegli izmanto savu daudzu gadu padziļināto argumentāciju un spriedumus, kas saistīti ar lidojuma vadības ierīcēm.

Ņemot vērā cilvēka sprieduma ievērojamo lomu, mēs varētu loģiski paredzēt, ka pilotam un otrajam pilotam dažkārt būs profesionālas nesaskaņas. Domājams, ka lielāko daļu laika šādu domstarpību ir ļoti maz. Pilots un otrais pilots ikdienas lidojumiem, visticamāk, ir labi saskaņoti, pārsvarā tajā laikā. Tikai tad, kad lidojuma scenārijs varētu iziet ārpus ierastajām robežām, mēs sagaidām, ka radīsies saspringtāka berze.

Ja starp abiem ir izteikta viedokļu atšķirība, es uzdrošināšos teikt, ka mēs vēlamies, lai viņi to izjauktu.

Iedomājieties situāciju, kad pilots strauji vēlas turpināt, bet otrais pilots uztver, ka riski ir pārāk augsti. Šķiet, ka nav vēlams, lai pilotam būtu tikai otrais pilots. Otrais pilots ir pārbaude un līdzsvars tam, ko pilots varētu darīt. Tiem, kas vēlas, lai otrais pilots apklustu un tikai neprātīgi rīkotos saskaņā ar pilota rīkojumiem, tas nav liels pārliecinājums. Otrais pilots nav vienkārši rezerves “pilots”, kas iekļaujas attēlā tikai tad, kad pilots ir pilnīgi darbnespējīgs. Tā ir maldīga izpratne par to, cik vērtīgi ir pilota un otrā pilota klātbūtne kabīnē.

Tam ir otrs leņķis.

Apsveriet gadījumu, kad pilots neuzskata, ka lidojumam būtu jāturpina, un tikmēr otrais pilots nevēlas pacelties gaisā. Ko tad? Sagaidāmajā hierarhijā pilotam parasti ir jādominē pār otro pilotu. Noteiktā galvenā atbildīgā loma padara pilotu par lielāku no tā, kas citādi ir nedaudz līdzvērtīgs. Parasti pilotam ir vairāk kopējā lidojuma laika nekā otrajam pilotam, un tāpēc otrajam pilotam ir hierarhiski jāpakļaujas pilota vēlmēm (ja tas ir saprātīgi).

Jebkurā gadījumā es domāju, ka mēs visi varam piekrist, ka izvēle nelidot noteikti ir mazāk riskanta nekā izlemt lidot. Kad lidmašīna paceļas gaisā, riska līmenis kļūst milzīgs, salīdzinot ar atrašanos uz jebkuras parastās stabilas zemes. Parasts komerciāls lidojums, kas vienkārši brauc ar taksometru atpakaļ uz termināli, nepaceļoties gaisā, būtu diezgan draudzīgs risinājums jebkādām karstām debatēm par došanos lidojumā.

Pārslēgsim ātrumus un izmantosim šo jauko ziņu pavisam citam, taču salīdzināmam mērķim.

Mūsu vidū pakāpeniski kļūst uz AI balstītas autonomas sistēmas. Dažreiz AI vada šovu it kā. AI dara visu, sākot no A līdz Z, un mēs to varētu uzskatīt par AI, kas ir pilnībā vai gandrīz autonoma. Citos gadījumos mums var būt AI, kas mijiedarbojas ar un zināmā mērā ir ieprogrammēts tā, lai tas būtu atkarīgs no cilvēka cilpā.

Es vēlētos pievērsties jautājumam par uz mākslīgo intelektu balstītu autonomu vai daļēji autonomu sistēmu, kurā jau no paša sākuma ir iesaistīts cilvēks. AI un cilvēks ir apzināti saspiesti kopā, un ir paredzēts, ka tie darbojas tandēmā viens ar otru. Tās ir grupas, kas veic konkrētu uzdevumu. Nav paredzēts, ka AI viens pats pilda uzdevumu. AI ir jāsadarbojas ar norādīto cilvēku cilpā.

Es ierosinu šo raksturojumu, lai atšķirtu no situācijām, kurās cilvēks cilpā tiek uzskatīts par neobligātu aspektu. Būtībā AI tiek dota brīva rīcība. Ja AI izvēlas izmantot cilvēku, lai tas tā arī jādara. Nav prasības, ka mākslīgajam intelektam ir jāpieskaras pamatnei ar norādīto cilvēku vai jādarbojas roku rokā ar norādīto cilvēku. Analīzes, par kurām es gatavojos stāstīt, noteikti attiecas uz šāda veida (nav obligāts) mijiedarbības izkārtojums, bet tas nav tas, uz ko es īpaši virzos šajā konkrētajā diskusijā.

Labi, tāpēc mums ir sava veida uzdevums, pie kura cilvēks un mākslīgais intelekts strādās kopā, viens no otra nedalāmi. Abstraktā nozīmē vienā sēdeklī sēž cilvēks, bet otrā pavadošā sēdeklī – AI sistēma. Es to saku nekaunīgi, jo mēs neaprobežojamies ar šo diskusiju, piemēram, tikai ar robotu, kas patiesībā varētu sēdēt sēdvietā. Es metaforiski atsaucos uz domu, ka AI kaut kur piedalās uzdevumā un tāpat arī cilvēks. Fiziskā ziņā viņu atrašanās vieta nav īpaši svarīga diskusijai.

Jūs, iespējams, neesat pārliecināts, kad šāds apstāklis ​​var rasties.

Vieglāk par vieglu.

Vēlāk es apspriedīšu autonomo transportlīdzekļu un pašbraucošo automašīnu parādīšanos. Noteiktos autonomijas līmeņos AI un cilvēkam ir jāstrādā kopā. AI varētu vadīt automašīnu un pieprasīt, lai cilvēks pārņem braukšanas vadību. Cilvēks varētu vadīt automašīnu un aktivizēt AI, lai pārņemtu vadību. Viņi pārmaiņus brauc pie braukšanas vadības ierīcēm.

Turklāt dažos modeļos AI būtībā ir aktīvs visu laiku (vai, ja vien tas nav izslēgts), lai AI vienmēr būtu gatavs. Turklāt mākslīgais intelekts var tieši iejaukties, pat bez cilvēka lūguma, atkarībā no situācijas, kas attīstās. Pieņemsim, piemēram, ka cilvēks, šķiet, ir aizmidzis pie stūres. Tā kā cilvēks šķietami nevar aktivizēt AI (jo cilvēks guļ), AI var būt ieprogrammēts pārņemt vadību no cilvēka.

Dažos dizainos mākslīgais intelekts un cilvēki tiek apvienoti ar dubultu braukšanas pieeju. AI vada un cilvēks vada. Vai arī, ja vēlaties, cilvēks brauc, un AI arī vada. Viņi katrs vada transportlīdzekli. Es to salīdzinu ar tām īpaši nostiprinātajām automašīnām, kuras jūs, iespējams, izmantojāt, apgūstot autovadītāju apmācību, un transportlīdzeklī bija divi braukšanas vadības ierīču komplekti, viens autovadītājam studentam un otrs braukšanas instruktoram.

Tas ir tikai viens piemērs situācijai, kurā AI un cilvēki varētu kopīgi strādāt pie kāda uzdevuma. Pastāv visdažādākās iespējas. Līdzīgi var tikt izstrādāti arī cita veida autonomie transportlīdzekļi, piemēram, lidmašīnas, droni, zemūdens kuģi, virszemes kuģi, vilcieni un tā tālāk. Mums nav jāņem vērā tikai transportlīdzekļu un transporta iestatījumi. Iedomājieties medicīnas jomu un operācijas, kuras kopīgi veic ārsts un mākslīgā intelekta sistēma. Saraksts ir bezgalīgs.

Man gandrīz šķiet, ka atsaucos uz klasiski nemierīgo joku par cilvēku un mākslīgo intelektu, kas kopā ieiet bārā. Tie ir diezgan smieklīgi tiem, kuri ir iecienījuši AI.

Nopietni runājot, atgriezīsimies pie cilvēka un mākslīgā intelekta sistēmas fokusa, kas strādā kopā ar noteiktu uzdevumu. Pirmkārt, es vēlos izvairīties no AI antropomorfizācijas, ko es uzsvēršu visā. AI nav jūtīgs. Lūdzu, paturiet to prātā.

Lūk, ko pārdomāt: Vai izraudzītais cilpas cilvēks vienmēr pilnībā saskaņos ar AI, kas darbojas komandā?

Šķiet, ka jebkura sarežģīta uzdevuma veikšanai maz ticams, ka cilvēks un mākslīgais intelekts pilnībā un vienmēr būs pilnībā saskaņoti. Cilvēks dažkārt, iespējams, nepiekrīt AI. Mēs varam pieņemt šo pieņēmumu līdz pat bankai.

Es vēlētos, lai jūs apsvērtu arī šo, iespējams, pārsteidzošo iespēju: Vai mākslīgais intelekts vienmēr pilnībā saskaņos ar izraudzīto cilvēku lokā?

Atkal, jebkuram sarežģītam uzdevumam šķiet diezgan iedomājams, ka AI dažkārt nesaskanēs ar cilvēkiem. Ja jūs jau sliecaties uz domu, ka AI vienmēr ir jābūt nepareizam, bet cilvēkiem vienmēr jābūt taisnībai, jums būtu prātīgi pārdomāt šo pārsteidzīgo secinājumu. Iedomājieties automašīnu, kurā cilvēks un mākslīgais intelekts kopīgi vada daļēji autonomu transportlīdzekli. Cilvēks virzās uz ķieģeļu sienu. Kāpēc? Mēs nezinām, iespējams, cilvēks ir apreibis vai aizmidzis, taču mēs zinām, ka ietriekšanās ķieģeļu sienā nav laba doma, ja viss pārējais ir vienāds. AI var atklāt gaidāmo nelaimi un mēģināt novērsties no gaidāmās barjeras.

Kopumā mums būs skaidra iespēja, ka AI un cilvēks nepiekritīs viens otram. Otrs veids, kā pateikt to pašu, ir cilvēki un AI nepiekrīt viens otram. Ņemiet vērā, ka es nevēlos, lai AI-un-cilvēks un cilvēks-un-MI secība kaut ko liecina par domstarpību virzienu vai ticamību.

Abi strādnieki, viens cilvēks un viens, kas ir AI, nepiekrīt viens otram.

Mēs varētu jau iepriekš paziņot, ka ikreiz, kad rodas domstarpības starp konkrēto AI un konkrētu cilvēku, mēs iepriekš pasludinām, ka cilvēks dominē pār AI. To sakot, mans ilustratīvs piemērs par automašīnu, kas iebrauc ķieģeļu sienā, šķiet, mūs atturēs no tā, ka cilvēkam vienmēr būs taisnība.

Turpretim mēs varētu izvēlēties iepriekš paziņot, ka ikreiz, kad rodas domstarpības, mēs esam iepriekš noskaidrojuši, ka mākslīgais intelekts ir pareizs un cilvēks kļūdās. Tas arī nav saprātīgi vispārināms noteikums. Iedomājieties automašīnu, kurā AI ir iegulta programmatūras kļūda vai kļūda, un AI mēģina nobraukt transportlīdzekli no ceļa un iebraukt grāvī. Pieņemot, ka viss pārējais ir vienāds, cilvēkam ir jāspēj pārvarēt šo AI braukšanas darbību un novērst transportlīdzekļa nosēšanos notekcaurulē.

Veiksim īsu kopsavilkumu par to:

  • Vai cilpas cilvēks vienmēr pilnībā piekrīt AI? Atbilde: Nē.
  • Vai mākslīgais intelekts vienmēr būs pilnīgi vienisprātis ar cilpas cilvēku? Atbilde: .
  • Vai cilpas cilvēkam vienmēr būs taisnība salīdzinājumā ar AI? Atbilde: Nav nepieciešams.
  • Vai mākslīgais intelekts vienmēr būs pareizs salīdzinājumā ar cilvēku cilpā? Atbilde: nav obligāti.

Jūs noteikti varat iestatīt, lai mākslīgais intelekts pēc noklusējuma tiktu uzskatīts par “nepareizo” vai vājāko pusi, un tāpēc ikreiz, kad rodas domstarpības, ļauties cilvēkam. Tāpat jūs varat iestatīt AI, lai pieņemtu, ka AI tiek uzskatīta par “pareizu” ikreiz, kad cilvēks nepiekrīt AI. Es vēlos precizēt, ka mēs varam to darīt programmatiski, ja vēlamies to darīt. Tomēr es apgalvoju, ka kopumā tas ne vienmēr būs tā. Noteikti ir iestatījumi, kuros mēs iepriekš nezinām, vai mākslīgais intelekts ir “pareizs” vai cilvēks ir “pareizs”, izvēloties vienu vai otru domstarpību gadījumā, kas saistītas ar konkrēto uzdevumu.

Es jūs novedu pie ļoti svarīga un ļoti sarežģīta jautājuma.

Kas mums jādara, ja rodas profesionālas domstarpības starp cilvēku cilpā un AI (vai līdzvērtīgi mēs varam to formulēt kā starp AI un cilvēku cilpā)?

Nemēģiniet izvairīties no jautājuma.

Daži varētu iebilst, ka tas nekad nenotiks, bet, kā es esmu izklāstījis savā piemērā par automašīnu, tas noteikti varētu notikt. Daži varētu iebilst, ka cilvēks ir acīmredzami pārāks un viņam ir jāuzvar jebkuras nesaskaņas. Mans piemērs par automašīnu un ķieģeļu sienu to satriec. Ir AI atbalstītāji, kas varētu uzstāt, ka mākslīgajam intelektam ir jābūt uzvarētājam, jo ​​šķietami ir pārvarētas cilvēku emocijas un nejauši izplūduši domājošie cilvēki. Vēlreiz mans otrs piemērs, kas saistīts ar automašīnas iebraukšanu grāvī, atspēko šo apgalvojumu.

Reālajā pasaulē AI un cilvēki nesaskaņos pat tad, ja abi tiek apzināti apvienoti komandā, lai veiktu kopīgi uzņemtos uzdevumus. Tas notiks. Mēs nevaram iebāzt galvu smiltīs un izlikties, ka tas nenotiks.

Mēs redzējām, ka cilvēki, kas vadīja lidmašīnu, šķietami nokļuva nesaskaņās. Par laimi, viņi piekrita nepiekrist, tāpēc šķiet. Viņi atveda lidmašīnu atpakaļ uz termināli. Viņi atrada veidu, kā risināt nesaskaņas. Viņu domstarpību risinājums izdevās labi, salīdzinot ar to, ja viņi, iespējams, būtu devušies uz dūrēm kabīnē vai varbūt lidojuši gaisā un turpinājuši cīnīties savā starpā. Tas ir skumjš scenārijs, kas nav pieņemams, un mēs varam būt pateicīgi, ka tas nenotika.

Ļaujiet man sniegt sarakstu ar dažādiem veidiem, kā varētu atrisināt AI un cilvēka cilpā (vai cilvēka cilpā un AI) domstarpības:

  • Mākslīgais intelekts un kopīgie cilvēki atrisina lietas (draudzīgi vai nē)
  • Pēc noklusējuma cilvēks dominē pār AI
  • AI pēc noklusējuma dominē pār cilvēku
  • Pēc noklusējuma dominē kāda cita iepriekš noteikta fiksēta izšķirtspēja
  • Trešās puses cilvēks ir cilpas, un viņu norāde dominē pār pusēm
  • Trešās puses mākslīgais intelekts ir cilpas, un tā norāde dominē pār pusēm
  • Trešās puses cilvēks aizstāj esošo cilvēku, lietas notiek no jauna
  • Trešās puses AI aizstāj esošo AI, lietas turpinās no jauna
  • Trešās puses cilvēks aizstāj esošo AI, viss notiek no jauna (tagad cilvēks-cilvēks)
  • Trešās puses AI aizstāj esošo cilvēku, lietas turpinās no jauna (tagad AI no AI)
  • cits

Tie ir ļoti vērti, lai tie tiktu izsaiņoti.

Pirms ķerties pie gaļas un kartupeļiem par savvaļas un vilnas apsvērumiem, kas ir pamatā AI un cilvēku nesaskaņām, izklāstīsim dažus papildu pamatus par ļoti būtiskām tēmām. Mums ir īsi jāiedziļinās AI ētikā un jo īpaši mašīnmācīšanās (ML) un dziļās mācīšanās (DL) parādīšanās.

Jūs varētu neskaidri apzināties, ka mūsdienās viena no skaļākajām balsīm AI jomā un pat ārpus AI jomas ir aicinājums pēc lielākas ētiskā AI līdzības. Apskatīsim, ko nozīmē atsaukties uz AI ētiku un ētisko AI. Papildus tam mēs izpētīsim, ko es domāju, runājot par mašīnmācīšanos un padziļinātu mācīšanos.

Viens konkrēts mākslīgā intelekta ētikas segments vai daļa, kas ir saņēmusi lielu plašsaziņas līdzekļu uzmanību, ir mākslīgais intelekts, kas demonstrē nevēlamus aizspriedumus un nevienlīdzību. Jūs varētu zināt, ka tad, kad sākās jaunākā AI ēra, bija milzīgs entuziasma uzliesmojums par to, ko daži tagad sauc. AI uz labu. Diemžēl mēs sākām būt liecinieki šim uzliesmojumam AI For Bad. Piemēram, ir atklāts, ka dažādas uz AI balstītas sejas atpazīšanas sistēmas satur rasu un dzimuma aizspriedumus, par ko esmu runājis saite šeit.

Centieni cīnīties pret AI For Bad aktīvi norisinās. Turklāt skaļš juridisks Mēģinot savaldīt pārkāpumus, notiek arī būtisks grūdiens AI ētikas ievērošanai, lai izlabotu AI neģēlību. Domājams, ka mums ir jāpieņem un jāapstiprina galvenie ētiskie AI principi AI izstrādei un izmantošanai, tādējādi samazinot AI For Bad un vienlaikus sludinot un popularizējot vēlamo AI uz labu.

Saistībā ar to es iestājos par mēģinājumu izmantot AI kā daļu no AI problēmu risinājuma, cīnoties pret uguni ar uguni šādā domāšanas veidā. Piemēram, mēs varētu iegult ētiskos AI komponentus AI sistēmā, kas uzraudzīs, kā pārējais AI dara lietas, un tādējādi, iespējams, reāllaikā uztvers jebkādus diskriminējošus centienus. Skatiet manu diskusiju vietnē saite šeit. Mums varētu būt arī atsevišķa AI sistēma, kas darbojas kā AI ētikas monitora veids. AI sistēma kalpo kā pārraugs, lai izsekotu un noteiktu, kad cits AI nonāk neētiskajā bezdibenī (skatiet manu analīzi par šādām iespējām vietnē saite šeit).

Pēc brīža es dalīšos ar dažiem visaptverošiem principiem, kas ir AI ētikas pamatā. Šur tur ir daudz šāda veida sarakstu. Varētu teikt, ka vēl nav vienota universālas pievilcības un vienprātības saraksta. Tā ir nelaimīgā ziņa. Labā ziņa ir tā, ka vismaz ir viegli pieejami AI ētikas saraksti, un tie mēdz būt diezgan līdzīgi. Kopumā tas liek domāt, ka ar sava veida pamatotu konverģenci mēs atrodam ceļu uz vispārēju kopību tam, no kā sastāv AI ētika.

Pirmkārt, īsi apskatīsim dažus vispārējos ētiskā AI priekšrakstus, lai ilustrētu, kam vajadzētu būt ļoti svarīgam ikvienam, kas izstrādā, izmanto vai izmanto AI.

Piemēram, kā to norādījis Vatikāns Roma aicinājums uz AI ētiku un kā esmu padziļināti aprakstījis plkst saite šeit, šie ir viņu identificētie seši galvenie AI ētikas principi:

  • Pārredzamība: Principā AI sistēmām ir jābūt izskaidrojamām
  • Iekļaušana: Ir jāņem vērā visu cilvēku vajadzības, lai ikviens varētu gūt labumu un visiem indivīdiem varētu piedāvāt vislabākos iespējamos apstākļus, lai izpaustos un attīstītos.
  • Atbildība: Tiem, kas izstrādā un ievieš AI izmantošanu, ir jārīkojas atbildīgi un pārredzami
  • objektivitāte: Neveidojiet un nerīkojieties saskaņā ar aizspriedumiem, tādējādi aizsargājot godīgumu un cilvēka cieņu
  • Uzticamība: AI sistēmām jāspēj darboties uzticami
  • Drošība un privātums: AI sistēmām ir jādarbojas droši un jāievēro lietotāju privātums.

Kā norādīja ASV Aizsardzības departaments (DoD) savā Mākslīgā intelekta izmantošanas ētikas principi un kā esmu padziļināti aprakstījis plkst saite šeit, šie ir viņu seši galvenie AI ētikas principi:

  • Atbildīgais: DoD darbinieki veiks atbilstošu spriedumu un rūpību, vienlaikus paliekot atbildīgi par AI iespēju izstrādi, izvietošanu un izmantošanu.
  • Taisnīgs: Departaments veiks apzinātus pasākumus, lai samazinātu neparedzētu AI iespēju novirzi.
  • Izsekojams: Departamenta mākslīgā intelekta iespējas tiks izstrādātas un izvietotas tā, lai attiecīgajam personālam būtu atbilstoša izpratne par tehnoloģijām, izstrādes procesiem un darbības metodēm, kas piemērojamas mākslīgā intelekta spējām, tostarp par pārredzamām un pārbaudāmām metodoloģijām, datu avotiem, kā arī projektēšanas procedūrām un dokumentāciju.
  • Reliable: Departamenta mākslīgā intelekta iespējām būs skaidri, precīzi definēti lietojumi, un šādu iespēju drošība, drošība un efektivitāte tiks pārbaudīta un garantēta noteiktajos lietojumos visā to dzīves ciklā.
  • Pārvaldāms: Departaments izstrādās un izstrādās mākslīgā intelekta iespējas, lai tās varētu izpildīt paredzētās funkcijas, vienlaikus spējot atklāt un izvairīties no neparedzētām sekām, kā arī atslēgt vai deaktivizēt izvietotās sistēmas, kas demonstrē neparedzētu uzvedību.

Esmu arī apspriedis dažādas AI ētikas principu kolektīvās analīzes, tostarp aptvēru pētnieku izstrādāto kopumu, kurā tika pārbaudīta un apkopota daudzu nacionālo un starptautisko AI ētikas principu būtība rakstā “The Global Landscape Of AI Ethics Guidelines” (publicēts). iekšā daba), un ka mans pārklājums pēta plkst saite šeit, kas noveda pie šī stūrakmens saraksta:

  • Caurspīdīgums
  • Taisnīgums un godīgums
  • Ne-ļaunprātība
  • atbildība
  • Privātums
  • Labums
  • Brīvība un autonomija
  • Uzticēties
  • Ilgtspējība
  • cieņa
  • Solidaritāte

Kā jūs varētu tieši nojaust, mēģināt noteikt šo principu pamatā esošo specifiku var būt ārkārtīgi grūti. Vēl jo vairāk, centieni pārvērst šos plašos principus par kaut ko pilnīgi taustāmu un pietiekami detalizētu, lai tos izmantotu AI sistēmu izstrādē, arī ir grūts rieksts. Kopumā ir viegli pamātīt ar roku par to, kas ir AI ētikas priekšraksti un kā tie vispārīgi jāievēro, savukārt AI kodēšanas situācija ir daudz sarežģītāka, ja tai ir jābūt īstai gumijai, kas saskaras ar ceļu.

AI ētikas principi ir jāizmanto AI izstrādātājiem, kā arī tiem, kas pārvalda AI izstrādes centienus, un pat tiem, kas galu galā ievieš un veic AI sistēmu uzturēšanu. Visas ieinteresētās puses visā AI izstrādes un lietošanas dzīves ciklā tiek uzskatītas par ētiskā AI noteikto normu ievērošanu. Tas ir svarīgs akcents, jo parasti tiek pieņemts, ka “tikai kodētājiem” vai tiem, kas programmē AI, ir jāievēro AI ētikas jēdzieni. Kā minēts iepriekš, ir nepieciešams ciemats, lai izstrādātu un ieviestu AI, un tam visam ciemam ir jābūt pieredzējušam un jāievēro AI ētikas priekšraksti.

Pārliecināsimies arī par mūsdienu mākslīgā intelekta būtību.

Mūsdienās nav AI, kas būtu jūtīgs. Mums šī nav. Mēs nezinām, vai jutīgais AI būs iespējams. Neviens nevar precīzi paredzēt, vai mēs sasniegsim jutīgu AI, kā arī to, vai jutīgs AI kaut kā brīnumaini spontāni radīsies skaitļošanas kognitīvās supernovas veidā (parasti saukta par singularitāti, skatiet manu pārklājumu vietnē saite šeit).

AI veids, uz kuru es koncentrējos, sastāv no nejūtošā AI, kas mums ir šodien. Ja mēs gribējām mežonīgi spekulēt par jūtīgs AI, šī diskusija varētu virzīties radikāli citā virzienā. Domājams AI būtu cilvēka kvalitātes. Jums jāņem vērā, ka jutīgais AI ir cilvēka kognitīvs ekvivalents. Vēl jo vairāk, tā kā daži uzskata, ka mums varētu būt superinteliģents AI, iespējams, ka šāds AI varētu būt gudrāks par cilvēkiem (manu superinteliģentā AI kā iespēju izpēti sk. pārklājums šeit).

Turēsim lietas piezemētākas un apsvērsim mūsdienu skaitļošanas nejūtīgo AI.

Saprotiet, ka mūsdienu mākslīgais intelekts nespēj “domāt” tādā pašā veidā kā cilvēka domāšana. Mijiedarbojoties ar Alexa vai Siri, sarunu spējas var šķist līdzīgas cilvēka spējām, taču patiesībā tās ir skaitļošanas iespējas un tām trūkst cilvēka izziņas. Jaunākajā AI laikmetā ir plaši izmantota mašīnmācīšanās (ML) un dziļā mācīšanās (DL), kas izmanto skaitļošanas modeļu saskaņošanu. Tas ir novedis pie AI sistēmām, kas izskatās pēc cilvēkiem līdzīgas tieksmes. Tikmēr mūsdienās nav neviena mākslīgā intelekta, kam būtu veselais saprāts un arī cilvēka spēcīgas domāšanas izziņas brīnums.

ML/DL ir skaitļošanas modeļu saskaņošanas veids. Parastā pieeja ir tāda, ka jūs apkopojat datus par lēmumu pieņemšanas uzdevumu. Jūs ievadāt datus ML/DL datoru modeļos. Šie modeļi cenšas atrast matemātiskos modeļus. Pēc šādu modeļu atrašanas, ja tādi tiek atrasti, AI sistēma izmantos šos modeļus, sastopoties ar jauniem datiem. Uzrādot jaunus datus, pašreizējā lēmuma pieņemšanai tiek piemēroti modeļi, kuru pamatā ir “vecie” vai vēsturiskie dati.

Es domāju, ka jūs varat uzminēt, kurp tas virzās. Ja cilvēki, kas ir pieņēmuši pieņemtus lēmumus, ir iekļāvuši nevēlamus aizspriedumus, pastāv iespēja, ka dati to atspoguļo smalki, bet nozīmīgi. Mašīnmācīšanās vai dziļās mācīšanās skaitļošanas modeļu saskaņošana vienkārši mēģinās attiecīgi matemātiski atdarināt datus. AI radītajā modelēšanā per se nešķiet veselais saprāts vai citi jūtīgi aspekti.

Turklāt AI izstrādātāji, iespējams, arī neapzinās, kas notiek. Arkāniskā matemātika ML/DL var apgrūtināt tagad slēpto aizspriedumu novēršanu. Jūs pamatoti cerat un gaidāt, ka AI izstrādātāji pārbaudīs potenciāli apraktos aizspriedumus, lai gan tas ir sarežģītāk, nekā varētu šķist. Pastāv liela iespēja, ka pat ar salīdzinoši plašu testēšanu ML/DL modeļu atbilstības modeļos joprojām būs novirzes.

Jūs varētu mazliet izmantot slaveno vai bēdīgi slaveno sakāmvārdu par atkritumu savākšanu. Lieta ir tāda, ka tas vairāk līdzinās aizspriedumiem, kas mānīgi tiek iepludināti, AI iegremdējot aizspriedumus. AI lēmumu pieņemšanas algoritms (ADM) aksiomātiski kļūst piekrauts ar nevienlīdzību.

Nav labi.

Atgriezīsimies pie domstarpībām starp AI un cilvēku.

Iepriekš esmu norādījis, ka šīs ir dažas no domstarpību risināšanas stratēģijām:

  • Mākslīgais intelekts un kopīgie cilvēki atrisina lietas (draudzīgi vai nē)
  • Pēc noklusējuma cilvēks dominē pār AI
  • AI pēc noklusējuma dominē pār cilvēku
  • Pēc noklusējuma dominē kāda cita iepriekš noteikta fiksēta izšķirtspēja
  • Trešās puses cilvēks ir cilpas, un viņu norāde dominē pār pusēm
  • Trešās puses mākslīgais intelekts ir cilpas, un tā norāde dominē pār pusēm
  • Trešās puses cilvēks aizstāj esošo cilvēku, lietas notiek no jauna
  • Trešās puses AI aizstāj esošo AI, lietas turpinās no jauna
  • Trešās puses cilvēks aizstāj esošo AI, viss notiek no jauna (tagad cilvēks-cilvēks)
  • Trešās puses AI aizstāj esošo cilvēku, lietas turpinās no jauna (tagad AI no AI)
  • cits

Laiks šos izsaiņot.

Pirmkārt, ņemiet vērā, ka tas viss ir par profesionāls nesaskaņas.

Profesionālas domstarpības ir brīvi definētas kā domstarpības, kas saistītas ar ar darbu saistītu uzdevumu.

Piemēram, domstarpības, kas rodas starp pilotu un otro pilotu par to, vai turpināt lidojumu ar vētru, var pamatoti apzīmēt kā profesionālas nesaskaņas. Turpretim asas domstarpības par to, kuru kafijas zīmolu pilots atbalsta, salīdzinot ar zīmolu, kuram dod priekšroku otrais pilots, šajā konkrētajā kontekstā ir viegli klasificējamas kā neprofesionālas domstarpības.

Protams, ja neprofesionālas domstarpības pārvēršas par profesionālām nesaskaņām, mūs galu galā varētu interesēt neprofesionālas domstarpības kā iespējamās profesionālās domstarpības vai dzirkstele. Iedomājieties, ka pilots un otrais pilots rūgti strīdas par to, kura zīmola kafija ir vislabākā, kas pēc tam diemžēl pārvēršas lidojumam raksturīgās bažās (run!), piemēram, pacelties vai nē.

Otrkārt, mums jāpatur prātā profesionālo nesaskaņu apmērs.

Iespējams, pilots un otrais pilots, vai arī viņiem ir nelielas domstarpības par lidojumu. Viņi nestrīdas un tikai apsver plusus un mīnusus, vai pacelties. Tas nav profesionālās nesaskaņas līmenis vai apjoms, ko mēs šeit parasti apsveram. Lieta tāda, ka var būt, ka profesionālās nesaskaņas ir pārejošas un abas puses sirsnīgi vai vismaz laicīgi izstrādā risinājumu. Parasti profesionālās domstarpības galvenās jomas ietvaros ir tās, kuras šķietami ir neatrisināmas, un abas puses joprojām ir nelokāmas domstarpībās.

Treškārt, parasti ir jābūt kaut kam nopietnam, lai šīs vadlīnijas stātos spēkā.

Lidot vai nelidot ir neapšaubāms lēmums par dzīvību vai nāvi, ja lidojums ir apdraudēts vētras dēļ vai tiek uzskatīts, ka lidmašīna nav pilnībā sagatavota šādam ceļojumam. Tas ir nopietns bizness. Mēs joprojām varam piemērot vadlīnijas mazāk ietekmīgām profesionālajām domstarpībām, lai gan tas var būt vairāk apgrūtinošs, nekā tas ir vērts.

Labi, mūsu apsvērumi ir šādi:

  • Domstarpības galvenokārt ir vērstas uz profesionāli, nevis par kaut ko neprofesionālu
  • Domstarpības ir ilgstošas ​​un nav tikai pārejošas vai citādi viegli atrisināmas
  • Domstarpības paredz nopietnas sekas, un tām parasti ir ietekmīgs iznākums
  • Puses ir nesaskaņas, un tās šķiet neatrisināmas

Tagad sīkāk apskatīsim katru no manām ieteiktajām vadlīnijām vai pieejām attiecībā uz to, kā tikt galā ar šādām profesionālajām domstarpībām.

Mākslīgais intelekts un kopīgie cilvēki atrisina lietas (draudzīgi vai nē)

Sarakstu sāku ar tiešu iespēju, ka AI un cilpas cilvēks spēj atrisināt profesionālās nesaskaņas savā starpā. Šķiet, ka, iespējams, divu cilvēku, pilota un otrā pilota gadījums ilustrē šāda veida apstākļus. Viņi kaut kā nolēma atgriezties terminālī un iet katrs savu ceļu. Varētu būt, ka mākslīgā intelekta sistēma un cilvēks spēj izdomāt risinājumu, kas kopumā ir apmierinošs abām pusēm, un tādējādi lieta ir apmierinoši pabeigta.

Pēc noklusējuma cilvēks dominē pār AI

Iestatot mākslīgo intelektu, mēs varam ieprogrammēt noteikumu, kas nosaka, ka vienmēr, kad rodas profesionālas domstarpības, noteicošais ir cilvēks in-the-loop. Tas būtu skaidri kodētais noklusējums. Mēs varam arī atļaut kāda veida ignorēšanu, lai gan pastāvīgs noteikums būs tāds, ka cilvēks ņem virsroku.

AI pēc noklusējuma dominē pār cilvēku

Iestatot mākslīgo intelektu, mēs varam ieprogrammēt noteikumu, kas nosaka, ka AI vienmēr dominē pār cilvēku lokā, ja rodas profesionālas nesaskaņas. Šis ir skaidri kodētais noklusējums. Katram gadījumam mēs varētu arī atļaut kādu ignorēšanu, lai gan pastāvīgs noteikums būs tāds, ka AI dominē.

Pēc noklusējuma dominē kāda cita iepriekš noteikta fiksēta izšķirtspēja

Iestatot AI, mēs varam ieprogrammēt noteikumu, kas nosaka, ka kāda cita iepriekš noteikta fiksēta izšķirtspēja būs noteicošā ikreiz, kad radīsies profesionālas nesaskaņas ar cilvēku lokā. Cilvēks-in-the-loop pēc noklusējuma nav dominējošs. AI pēc noklusējuma nedominē. Ir kāda cita iepriekš noteikta rezolūcija. Piemēram, iespējams, ir jāmet monēta, kas tiks izmantota, lai izlemtu, kura no abām pusēm tiek uzskatīta par pareizo ceļu. Tas acīmredzot šķistu diezgan patvaļīgi; tādējādi vēl viens piemērs būtu tāds, ka tiek ieviests specializēts noteikums, kas aprēķina vērtību, pamatojoties uz abu pušu ievadītajiem datiem, un iegūst rezultātu kā neizšķirtu.

Trešās puses cilvēks ir cilpas, un viņu norāde dominē pār pusēm

Profesionālu nesaskaņu gadījumā noteikums varētu būt tāds, ka trešā puse, kas ir cilvēks, tiek pieaicināta un iesaistīta vidē, lai pieņemtu lēmumu par domstarpību atrisināšanu. AI ir ieprogrammēts, lai atliktu to, ko nolemj trešās puses cilvēks. Cilvēkam, kas jau atrodas cilpā, ir iepriekš sniegts norādījums, ka, ja rodas šāda situācija, arī viņiem ir jāattiecas uz trešo personu. Starp citu, jūs, iespējams, paredzat, ka cilpā esošais cilvēks var satraukties par pievienošanos tam, ko nolemj trešās puses cilvēks, ja lēmums neatbilst cilvēka cilpā pozīcijai.

Trešās puses mākslīgais intelekts ir cilpas, un tā norāde dominē pār pusēm

Profesionālu domstarpību gadījumā var būt noteikums, ka trešā puse, kas ir cita AI sistēma, tiek izsaukta un iekļauta iestatījumā, lai pieņemtu lēmumu par domstarpību atrisināšanu. Sākotnējais mākslīgais intelekts ir ieprogrammēts, lai atliktu to, ko nolemj trešās puses AI. Cilvēkam, kas jau atrodas cilpas cilvēkā, ir iepriekš sniegts norādījums, ka, ja rodas šāda situācija, arī viņiem ir jāatliek trešās puses AI. Starp citu, jūs, iespējams, paredzat, ka cilpas cilvēks var satraukties par pievienošanos tam, ko nolemj trešās puses AI, ja lēmums neatbilst cilvēka cilpā pozīcijai.

Trešās puses cilvēks aizstāj esošo cilvēku, lietas notiek no jauna

Profesionālu domstarpību gadījumā cilpas cilvēks tiek aizstāts ar trešo personu, kas ir cilvēks un kas turpmāk kļūst par cilvēku lokā. Cilvēks, kurš bija sākotnējais uzdevuma cilpas cilvēks, vairs netiek uzskatīts par attiecīgā uzdevuma daļu. Tas ir atklāts aspekts par to, kas citādi notiek ar tagad aizstāto cilvēku lokā, taču mēs sakām, ka viņiem noteikti vairs nav nekādas pastāvīgas lomas darba uzdevumā.

Trešās puses AI aizstāj esošo AI, lietas turpinās no jauna

Profesionālu nesaskaņu gadījumā AI tiek aizstāts ar trešās puses AI, un turpmāk tas kļūst par AI, ko izmanto konkrētajam darba uzdevumam. AI, kas sākotnēji tika izmantota uzdevumam, vairs netiek uzskatīta par attiecīgā uzdevuma daļu. Tas ir atklāts aspekts par to, kas citādi notiek ar tagad aizstāto AI, taču mēs sakām, ka AI noteikti vairs nepilda nekādu lomu darba uzdevumā.

Trešās puses cilvēks aizstāj esošo AI, viss notiek no jauna (tagad cilvēks-cilvēks)

Profesionālu domstarpību gadījumā mākslīgais intelekts tiek aizstāts ar trešās puses cilvēku, kuram šī persona tagad kļūst par uzskatīto sadarbības partneri, kas tiks izmantota konkrētajam darba uzdevumam. AI, kas sākotnēji tika izmantota uzdevumam, vairs netiek uzskatīta par attiecīgā uzdevuma daļu. Tas ir atklāts aspekts par to, kas citādi notiek ar tagad aizstāto AI, taču mēs sakām, ka AI noteikti vairs nepilda nekādu lomu darba uzdevumā. Īsāk sakot, tas tagad kļūst par divu pušu uzdevumu, ko veic viens cilvēks.

Trešās puses AI aizstāj esošo cilvēku, lietas turpinās no jauna (tagad AI no AI)

Profesionālu nesaskaņu gadījumā cilpas cilvēks tiek aizstāts ar trešās puses AI, un turpmāk šis AI kļūst par iepriekšējā cilvēka cilpas aizpildījumu. Cilvēks, kurš bija sākotnējais uzdevuma cilpas cilvēks, vairs netiek uzskatīts par attiecīgā uzdevuma daļu. Tas ir atklāts aspekts par to, kas citādi notiek ar tagad aizstāto cilvēku lokā, taču mēs sakām, ka viņiem noteikti vairs nav nekādas pastāvīgas lomas darba uzdevumā. Īsāk sakot, tas tagad kļūst par divu pušu AI-to-AI, lai veiktu uzdevumu.

cits

Var tikt izstrādātas citas variācijas, lai risinātu profesionālas nesaskaņas, taču mēs šeit esam apskatījuši dažus galvenos punktus.

Kā mēs varam izlemt, kura no šīm pieejām būs pareizā konkrētā situācijā?

Izdarot šādu izvēli, rodas dažādas problēmas. Ir tehnoloģiski apsvērumi. Ir biznesa apsvērumi. Ir juridiski un ētiski apsvērumi.

Zināmā mērā tāpēc AI ētika un ētiskais AI ir tik svarīga tēma. AI ētikas priekšraksti liek mums saglabāt modrību. AI tehnologi dažkārt var būt aizņemti ar tehnoloģijām, jo ​​īpaši ar augsto tehnoloģiju optimizāciju. Viņi ne vienmēr ņem vērā lielākas sabiedrības sekas. Lai izveidotu atbilstošu AI, tostarp (varbūt pārsteidzoši vai ironiski) novērtējot, kā AI ētika tiek pieņemta uzņēmumos, ir ļoti svarīgi ievērot AI ētikas domāšanu un to darīt AI attīstībā un darbības jomā.

Papildus AI ētikas priekšrakstu izmantošanai kopumā ir attiecīgs jautājums par to, vai mums vajadzētu pieņemt likumus, kas regulētu dažādus AI lietojumus. Federālā, štata un vietējā līmenī tiek pieņemti jauni likumi, kas attiecas uz AI izstrādes diapazonu un raksturu. Centieni izstrādāt un pieņemt šādus likumus notiek pakāpeniski. AI ētika kalpo vismaz kā pārdomāts pārtraukums, un gandrīz noteikti zināmā mērā tiks tieši iekļauts šajos jaunajos likumos.

Ņemiet vērā, ka daži nelokāmi apgalvo, ka mums nav vajadzīgi jauni likumi, kas aptver AI, un ka mūsu esošie likumi ir pietiekami. Patiesībā viņi jau iepriekš brīdina, ka, ja mēs ieviesīsim dažus no šiem AI likumiem, mēs nogalināsim zelta zosu, ierobežojot AI progresu, kas sniedz milzīgas sabiedrības priekšrocības.

Šajā svarīgās diskusijas posmā es varu derēt, ka jūs vēlaties dažus ilustratīvus piemērus, kas varētu parādīt šo tēmu. Ir īpašs un noteikti populārs piemēru kopums, kas man ir tuvs. Redziet, manā kā MI ekspertam, tostarp ētiskajām un juridiskajām sekām, man bieži tiek lūgts identificēt reālistiskus piemērus, kas parāda AI ētikas dilemmas, lai varētu vieglāk uztvert tēmas nedaudz teorētisko raksturu. Viena no visspilgtākajām jomām, kas spilgti atspoguļo šo ētisko AI problēmu, ir uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās. Tas kalpos kā ērts lietošanas gadījums vai paraugs plašai diskusijai par šo tēmu.

Šeit ir viens ievērības cienīgs jautājums, par kuru ir vērts padomāt: Vai uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās kaut ko izgaismo par AI un cilvēku domstarpību risinājumiem, un, ja jā, ko tas parāda?

Ļaujiet man kādu brīdi izpakot jautājumu.

Pirmkārt, ņemiet vērā, ka īstā pašbraucošā automašīnā nav cilvēka vadītāja. Ņemiet vērā, ka patiesas pašbraucošas automašīnas tiek vadītas, izmantojot AI braukšanas sistēmu. Nav nepieciešams cilvēks pie stūres, kā arī nav paredzēts, ka cilvēks varētu vadīt transportlīdzekli. Manu plašo un pastāvīgo informāciju par autonomajiem transportlīdzekļiem (AV) un īpaši pašbraucošām automašīnām sk. saite šeit.

Es vēlētos vēl vairāk precizēt, kas ir domāts, runājot par patiesām pašbraucošām automašīnām.

Izpratne par pašbraucošo automašīnu līmeņiem

Paskaidrosim, ka patiesas pašbraucošas automašīnas ir tās, kurās mākslīgais intelekts vada automašīnu pilnībā un braukšanas uzdevuma laikā netiek sniegta cilvēka palīdzība.

Šie bezvadītāja transportlīdzekļi tiek uzskatīti par 4. un 5. līmeni (skatiet manu skaidrojumu vietnē šī saite šeit), savukārt automašīna, kuras vadītājam ir jādalās braukšanas piepūlē, parasti tiek uzskatīta par 2. vai 3. līmeni. Automašīnas, kas kopīgi veic vadīšanas uzdevumu, ir aprakstītas kā daļēji autonomas, un parasti tajās ir dažādas automatizēti papildinājumi, kas tiek saukti par ADAS (Advanced Driver-Assistance Systems).

Pagaidām vēl nav īstas pašbraucošas automašīnas 5. līmenī, un mēs vēl pat nezinām, vai to būs iespējams sasniegt, kā arī to, cik ilgs laiks būs nepieciešams, lai līdz tam nokļūtu.

Tikmēr 4. līmeņa centieni pakāpeniski mēģina iegūt zināmu saķeri, veicot ļoti šauru un selektīvu koplietošanas ceļu izmēģinājumus, lai gan pastāv strīdi par to, vai šī pārbaude ir jāatļauj per se (mēs visi esam dzīvības vai nāves jūrascūciņas eksperimentā kas notiek uz mūsu lielceļiem un blakusceļiem, daži apgalvo, skatiet manu pārklājumu vietnē šī saite šeit).

Tā kā pusautomātiskajām automašīnām ir nepieciešams autovadītājs, kas izmanto cilvēku, šāda veida automašīnas pieņemšana ievērojami neatšķirsies no parastā transporta līdzekļa vadīšanas, tāpēc per se nav daudz jaunu, lai par tām runātu par šo tēmu (lai gan, kā redzēsit pēc brīža nākamie punkti parasti ir piemērojami).

Pusautonomām automašīnām ir svarīgi, lai sabiedrība tiktu brīdināta par satraucošu aspektu, kas rodas pēdējā laikā, proti, ka, neskatoties uz tiem autovadītājiem, kas turpina publicēt video, kā viņi aizmiguši pie 2. vai 3. līmeņa automašīnas stūres , mums visiem jāizvairās no maldināšanas, uzskatot, ka vadītājs, vadot daļēji autonomu automašīnu, var novērst uzmanību no braukšanas uzdevuma.

Jūs esat atbildīgā persona par transportlīdzekļa vadīšanas darbībām neatkarīgi no tā, cik daudz automatizācijas var iemest 2. vai 3. līmenī.

Pašbraucošas automašīnas un AI pret cilvēku nesaskaņas

4. un 5. līmeņa īstiem pašpiedziņas transportlīdzekļiem braukšanas uzdevumā nebūs iesaistīts autovadītājs.

Visi pasažieri būs pasažieri.

AI veic braukšanu.

Viens aspekts, kas nekavējoties jāapspriež, ietver faktu, ka AI, kas iesaistīts mūsdienu AI braukšanas sistēmās, nav jūtīgs. Citiem vārdiem sakot, AI kopumā ir datorizētas programmēšanas un algoritmu kolektīvs, un, protams, tas nespēj spriest tāpat kā cilvēki.

Kāpēc šis papildu uzsvars tiek likts uz to, ka AI nav jūtīgs?

Tā kā es gribu pasvītrot, ka, apspriežot AI braukšanas sistēmas lomu, es nepiešķiru AI cilvēka īpašības. Lūdzu, ņemiet vērā, ka mūsdienās pastāv un ir bīstama tendence antropomorfizēt AI. Būtībā cilvēki piešķir mūsdienu cilvēka intelektu mūsdienu AI, neskatoties uz nenoliedzamu un neapstrīdamu faktu, ka šāda AI vēl nav.

Izmantojot šo precizējumu, jūs varat iedomāties, ka AI braukšanas sistēma dabiski kaut kā “nezinās” par braukšanas aspektiem. Braukšana un viss, kas ar to saistīts, būs jāprogrammē kā daļa no pašpiedziņas automašīnas aparatūras un programmatūras.

Iegremdēsimies neskaitāmos aspektos, kas nāk par šo tēmu.

Pirmkārt, ir svarīgi saprast, ka ne visas AI pašbraucošās automašīnas ir vienādas. Katrs autoražotājs un pašpiedziņas tehnoloģiju uzņēmums izmanto savu pieeju, lai izstrādātu pašbraucošas automašīnas. Tādējādi ir grūti sniegt visaptverošus paziņojumus par to, ko AI vadīšanas sistēmas darīs vai nedarīs.

Turklāt ikreiz, kad tiek apgalvots, ka AI vadīšanas sistēma nedara kādu konkrētu lietu, to vēlāk var apsteigt izstrādātāji, kuri faktiski programmē datoru, lai to izdarītu. Soli pa solim AI braukšanas sistēmas tiek pakāpeniski uzlabotas un paplašinātas. Esošais ierobežojums šodien, iespējams, vairs nepastāvēs turpmākajā sistēmas iterācijā vai versijā.

Es ceru, ka tas sniedz pietiekamu atrunu, kas ir pamatā tam, ko es gatavojos stāstīt.

Pilnībā autonomiem transportlīdzekļiem var nebūt nekādu profesionālu domstarpību starp cilvēku un mākslīgo intelektu, jo pastāv iespēja, ka cilpā nav neviena cilvēka. Daudzu mūsdienu pašpiedziņas automobiļu ražotāju mērķis ir pilnībā atbrīvot cilvēku no braukšanas uzdevuma. Transportlīdzeklī pat nebūs cilvēkam pieejamas braukšanas vadības ierīces. Tādā gadījumā vadītājs cilvēks, ja tāds ir, nevarēs piedalīties braukšanas uzdevumā, jo viņam nav piekļuves nevienai braukšanas vadībai.

Dažiem pilnībā autonomiem transportlīdzekļiem daži dizaini joprojām ļauj cilvēkam būt cilpā, lai gan cilvēkam vispār nav jābūt pieejamam vai jāpiedalās braukšanas procesā. Tādējādi cilvēks var piedalīties braukšanā, ja cilvēks to vēlas. Tomēr mākslīgais intelekts nekādā gadījumā nav atkarīgs no cilvēka, lai veiktu kādu no braukšanas uzdevumiem.

Daļēji autonomu transportlīdzekļu gadījumā pastāv cieša saikne starp cilvēka vadītāju un mākslīgo intelektu. Cilvēka vadītājs var pilnībā pārņemt braukšanas vadību un būtībā neļaut AI piedalīties braukšanā. Ja vadītājs cilvēks vēlas atjaunot AI vadītāja lomā, viņš to var izdarīt, lai gan tas dažreiz liek cilvēkam atteikties no braukšanas vadības ierīcēm.

Cits daļēji autonomas darbības veids nozīmētu, ka vadītājs un mākslīgais intelekts strādā kopā komandas veidā. AI vada un cilvēks vada. Viņi brauc kopā. AI varētu nodoties cilvēkam. Cilvēks varētu paļauties uz AI.

Atsevišķos gadījumos AI braukšanas sistēma un cilvēka vadītājs var nonākt "profesionālu nesaskaņu" punktā par konkrēto braukšanas uzdevumu.

Lai ilustrētu, kā dažus no iepriekš minētajiem noteikumiem par profesionālo nesaskaņu risināšanu var būt grūti īstenot, apsveriet iespēju pieaicināt trešo personu, lai iesaistītos lietā un piedāvātu lēmumu neatrisinātās problēmas risināšanai.

Pieņemsim, ka autoražotājs vai pašpiedziņas tehnoloģiju uzņēmums ir nodrošinājis attālinātiem operatoriem piekļuvi viņu autoparka transportlīdzekļu vadības ierīcēm. Cilvēks operators sēž kādā tālā birojā vai līdzīgā vidē. Izmantojot datorsistēmu, viņi var skatīt braukšanas ainu, piekļūstot kamerām un citām sensoru ierīcēm, kas ielādētas pašbraucošajā automašīnā. Viņiem tas ir gandrīz kā tiešsaistes videospēļu spēlēšana, lai gan, protams, reālie apstākļi var radīt nopietnas sekas.

AI sistēma un cilvēks, kas atrodas automašīnā, brauc ar daļēji autonomu transportlīdzekli pa garu šoseju. Pēkšņi AI vēlas iestūrēt grāvī. Cilvēka vadītājs nevēlas to darīt. Abi mīņājas pa braukšanas vadības ierīcēm.

Kā tas tiks atrisināts?

Mēs, iespējams, būtu varējuši jau iepriekš noteikt, ka cilvēks vienmēr uzvar. Pieņemsim, ka mēs tomēr izvēlējāmies to nedarīt.

Mēs varējām jau iepriekš noteikt, ka mākslīgais intelekts vienmēr uzvar. Pieņemsim, ka mēs izvēlējāmies to nedarīt. Kopumā mēs nepieņēmām nevienu no šiem noteikumiem, izņemot to, ka mēs nolēmām ļaut trešās puses personai iejaukties un atrisināt jebkādas būtiskas profesionālas domstarpības.

Šajā lietošanas gadījumā AI un vadītājs pie stūres cīnās par braukšanas vadības ierīcēm. Tas, teiksim, tiek nodots attālinātajam operatoram (mūsu trešās puses cilvēkam). Attālinātais operators pārbauda notiekošo un nolemj stūrēt prom no grāvja, šķietami novēršot to, ko AI mēģināja izdarīt. Tajā pašā laikā pieņemsim, ka attālais cilvēks-operators iegriežas pretimbraucošajā satiksmē, ko, iespējams, nebija vēlējušies darīt ne AI, ne automašīnas vadītājs.

Lieta ir tāda, ka veids, kā šis noteikums ir ieviests, ir tāds, ka trešās puses cilvēks operators spēj pilnībā ignorēt gan AI, gan cilvēku cilpā. Tas, vai tas dos labu rezultātu, noteikti nav pārliecināts.

Es izmantošu šo piemēru, lai uzsvērtu dažus papildu ieskatus par šiem jautājumiem.

Jūs nevarat izdarīt nekaunīgu pieņēmumu, ka tikai tāpēc, ka tiek ieviests viens no šiem noteikumiem, atrisinātās domstarpības noteikti ir garantēts labs iznākums. Tā var nebūt. Nav neviena dzelžaina vienmēr pareiza noteikuma, ko varētu atlasīt.

Tālāk daži no šiem noteikumiem var nebūt reāli īstenojami.

Apsveriet piemēru, kad tālvadības operators iejaucas, kad AI un vadītājs strīdas par braukšanas vadības ierīcēm. Var paiet vairākas sekundes, līdz attālais operators sapratīs, kas notiek. Līdz tam transportlīdzeklis, iespējams, jau bija nokļuvis grāvī vai tam bija kāds cits nelabvēlīgs iznākums. Pieņemsim arī, ka transportlīdzekļa atrašanās vieta nepieļauj attālo piekļuvi, piemēram, atrašanās vietā, kur nav tīkla elektroniskā savienojuma. Vai varbūt transportlīdzekļa tīkla funkcijas konkrētajā brīdī nedarbojas.

Kā redzat, noteikums uz papīra var izskatīties neparasti, lai gan kārtulas faktiskā izmantošana var būt ļoti sarežģīta vai ļoti nejauša pieeja. Skatiet manu kritisko skatījumu ziņojumu par autonomo transportlīdzekļu un pašbraucošo automašīnu attālo operatoru vietnē saite šeit.

Es vēlos īsi aplūkot citu saistītu tēmu, ko sīkāk aplūkošu nākamajā analīzē.

Viena no pieaugošajām bažām par autonomajiem transportlīdzekļiem un pašbraucošām automašīnām, kas ir daļēji autonomas, ir t.s. Karsto kartupeļu sindroms.

Lūk, darījums.

AI braukšanas sistēma un cilvēks brauc līdzās. Rodas šausmīgs stāvoklis. AI ir ieprogrammēts tā, lai tas pārtrauktu braukšanas uzdevumu un nodotu lietas cilvēka rokās, kad notiek šausmīgs brīdis. Tas, iespējams, šķiet “saprātīgi”, jo mēs, šķiet, atsaucamies uz likumu par cilvēku kā noklusējuma “uzvarētāju” jebkurās iespējamās profesionālās nesaskaņās.

Taču mākslīgā intelekta pamešana varētu būt ļaunākiem vai uzskatītiem par mānīgiem mērķiem. Iespējams, ka autoražotājs vai pašpiedziņas tehnoloģiju uzņēmums nevēlas, lai viņu mākslīgais intelekts tiktu uzskatīts par “vainīgo pusi”, kad notiek autoavārija. Lai šķietami izvairītos no iesprūšanas, mākslīgais intelekts pēkšņi nodod vadību cilvēkam. Voila, cilvēks tagad, domājams, ir pilnībā atbildīgs par transportlīdzekli.

Iemesls ir tāds, ka pieņemsim, ka AI veic šo nodošanu, pieņemsim, ka līdz avārijai ir atlikuša viena sekunde.

Vai cilvēkam patiešām būtu pieejams laiks, lai novērstu avāriju?

Visticamāk, ka nē.

Pieņemsim, ka mākslīgais intelekts veic nodošanu, kad līdz beigām ir atlikušas dažas milisekundes vai nanosekundes. Es uzdrošinos teikt, ka cilvēkam būtībā nav nekādu iespēju kaut ko darīt, lai novērstu avāriju.

No autoražotāja vai pašbraucošo automašīnu firmas viedokļa viņi var mēģināt rīkoties tā, it kā viņu rokas būtu tīras, kad notiek šāda autoavārija. Automašīnu vadīja cilvēks. AI nevadīja automašīnu. Šķiet, ka vienīgais "loģiskais" secinājums ir tāds, ka vainīgs ir cilvēks un AI jābūt pilnīgi nevainojamam.

Tas ir trauks.

Es par to sīkāk apspriedīšu nākamajā slejā.

Secinājumi

Gaidāmas profesionālas nesaskaņas.

Ir grūti iedomāties kādu sarežģītu uzdevumu, kurā divas puses kopīgi veiktu uzdevumu un par kuru nekad nerastos nekādas profesionālas domstarpības. Šī šķiet fantāzijas zeme vai vismaz liels retums.

Mūsdienās mums ir daudz, daudz cilvēku starpā profesionālu nesaskaņu gadījumu, par kuriem ik dienas tiek miermīlīgi un saprātīgi izdomāti lēmumi tā vai citādi. Patiesībā mēs bieži izveidojam situācijas ar nolūku, lai veicinātu un atklātu profesionālas nesaskaņas. Jūs varētu iebilst, ka tas parāda slaveno gudrību, ka dažreiz divas galvas ir labākas par vienu.

Tā kā mākslīgais intelekts kļūst arvien izplatītāks, mums būs daudz divu pušu uzdevumu izpildītāju, kas veic AI-cilvēku vai cilvēku-AI, un būs profesionālās nesaskaņas kas notiks. Slinka pieeja ir vienmēr pakļauties cilvēkam. Šī pieeja var nebūt vispiemērotākā. AI varētu būt labāka izvēle. Vai arī kāds no citiem iepriekš minētajiem noteikumiem varētu būt saprātīgāka pieeja.

Ir tā gudrā līnija, kas bieži tiek atkārtota, ka mums visiem vajadzētu būt spējīgiem piekrist nepiekrist, lai gan, ja runa ir par vadu, dažreiz domstarpības ir viennozīmīgi jāatrisina, pretējā gadījumā izskatāmā problēma novedīs pie neaprakstāmas nelaimes. Mēs nevaram ļaut domstarpībām vienkārši novājēt. Laikam var būt liela nozīme, un uz spēles var būt dzīvības.

Pastāv skaidra prasība pēc dažiem piesardzīgiem līdzekļiem, lai atrisinātu domstarpības, pat ja tas ne vienmēr ir pieņemams, tostarp gadījumos, kad mākslīgais intelekts un cilpas cilvēks nesaskata ne aci pret aci, ne baitu līdz baitam.

Es ticu, ka jūs nepiekritīsit šim pilnīgi pieņemamajam apgalvojumam.

Avots: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lesssons-gleaned-from-that-recent-alaska-airlines-flight-where- pilots un otrais pilots pirms pacelšanās nepiekrita un pēkšņi izvēlējās braukt ar taksometru atpakaļ uz termināli un doties uz savu-atsevišķo ceļu/