AI ētika cīnās ar uz AI balstītu autonomo ieroču sistēmu ugunīgo viens vai divi sitieni, kā arī ar mākslīgā intelekta vadītu autonomo sistēmu ekspluatāciju, kuras ir velnišķīgi apbruņotas

Šie apbrīnojamie dejojošie četrkājainie roboti.

Esmu pārliecināts, ka esat redzējis šos vīrusu videoklipus ar četrkājainajām robotu sistēmām, kas dejo un dejo šķietami apburošos un suņiem līdzīgos iemīļotos veidos. Šķiet, mums patīk redzēt šos mākslīgā intelekta vadītos robotus, kas kāpj pāri šķēršļiem un, šķiet, iegūst delikātu balstu, kad tie atrodas uz kastes vai pēc tam, kad tie ir nestabili novietoti uz skapju virsmām. Viņu cilvēki apdarinātāji dažkārt pagrūda vai pagrūda ņirgājošos četrkājainos robotus, kas šķiet satraucoši netaisnīgi un var izraisīt jūsu dusmas par nežēlīgo izturēšanos, ko veic šie gudrie humanoīdi.

Tomēr es domāju, vai esat redzējis ne pārāk vīrusus ar pavisam cita kalibra videoklipiem.

Sagatavo sevi.

Ir plaši publicēti videoklipi, kuros redzami tāda paša veida četrkājainie roboti, kas ir aprīkoti ar izteiktiem viena vai otra veida ieročiem.

Piemēram, ložmetējs vai līdzīgs šaujamierocis ir uzstādīts virs citādi pazīstama dejojoša un lēkājoša robota. Starp četrkājaino robotu un ieroča šaušanas mehānismu ir elektroniska saikne. Tagad ar ieročiem aprīkotā staigāšanas datortehnikas ierīce tiek parādīta, virzoties uz vietu, kur ir novietots bullseye mērķis, un ložmetējs tiek nikni šauts uz mērķi. Pēc vēlāk daļēji iznīcinātā mērķa naglošanas četrkājainais robots dejo un lēkā apkārt tuvējiem šķēršļiem un ierindojas rindā, lai atkārtotu to pašu darbību atkal un atkal pie citiem jauniem mērķiem.

Ne gluži tas, ko jūs varētu gaidīt redzēt. Tas noteikti mazina vieglprātību un salīdzinošo prieku no vaļsirdīgas skatīšanās, kā šie mīlīgie četrkājainie roboti dara savu. Laipni lūdzam šķietami skarbajā realitātē nekaitīgs autonomas sistēmas tiek pārveidotas vai pārveidotas par krasi ieročiem. Pieliekot lielas pūles, jūs vienas nakts laikā varat modernizēt autonomu sistēmu bez ieročiem, lai tajā būtu pilni ieroči.

Dažos apstākļos tas ir gandrīz viegli.

Es apspriedīšu šo karsti strīdīgo tēmu un aptveršu diezgan smagas AI ētikas problēmas, kas rodas. Mēs dosimies ceļojumā uz autonomām sistēmām, AI, autonomiem transportlīdzekļiem, ieročiem un daudzām saistītām ētiskā AI apkarošanas problēmām. Manu pastāvīgo un plašo AI ētikas un ētikas AI atspoguļojumu skatiet saite šeit un saite šeit, tikai nosaukt dažus.

Sāksim ar dažiem pamata stūrakmeņiem.

Diskusiju labad pieņemiet, ka pastāv divi galvenie veidi, kā klasificēt autonomās sistēmas, kas ir bruņotas ar ieročiem:

1) Autonomās ieroču sistēmas (pēc dizaina)

2) Autonomās sistēmas, kas ir apbruņotas (pēc fakta)

Starp abām kategorijām ir būtiska atšķirība.

Pirmkārt, mēs definēsim an autonomā ieroču sistēma būt no sākuma datorizētai radīšanai, kas ir mērķtiecīgi paredzēta kā ierocis. Izstrādātājiem bija prātā, ka viņi vēlējās izstrādāt ieroci. Viņu skaidrais mērķis ir ražot ieroci. Viņi zināja, ka var integrēt ieročus ar jaunākajām autonomo sistēmu tehnoloģijām. Šis ir ierocis, kas brauc uz augsto tehnoloģiju viļņa, kas sasniedz autonomu kustību un autonomas darbības (drīzumā aprakstīšu sīkāk).

Turpretim otrajā instancē mēs apsvērsim jautājumu par autonomām sistēmām, kurām vispār nav īpašas noslieces uz ieročiem. Tās ir autonomas sistēmas, kas tiek izstrādātas citiem mērķiem. Iedomājieties autonomu transportlīdzekli, piemēram, pašbraucošu automašīnu, kas tiks izmantota, lai nodrošinātu mobilitāti visiem un palīdzētu samazināt tūkstošiem ikgadējo nāves gadījumu skaitu, kas rodas cilvēku vadītu un cilvēku vadītu automašīnu dēļ (skatiet manu padziļināto pārskatu plkst saite šeit). Šķiet, ka šie labvēlīgie sabiedrības centieni dabūt cilvēkus no aiz stūres un novietot AI vadītāja sēdeklī, šķiet, nav vērā ņemams ierocis.

Bet šīs nekaitīgās autonomās sistēmas var tikt ierocis, ja cilvēki vēlas to darīt.

Es atsaucos uz šo otro kategoriju tad kā autonomas sistēmas, kas ir bruņotas. Autonomā sistēma sākotnēji tika rūpīgi izstrādāta, domājams, ar ieročiem nesaistītam mērķim. Neraugoties uz to, sapņaino altruistisko cerību kāds kaut kur izjauc, kam rodas viltīga doma, ka šo izdomājumu varētu izmantot ar ieročiem. Pēkšņi autonomā sistēma, kas šķita pievilcīga, ir kļuvusi par nāvējošu ieroci, atzīmējot kāda veida ieroču iespējas (piemēram, iepriekš minētie četrkājainie suņiem līdzīgie roboti, kuriem ir pievienots ložmetējs vai līdzīgs šaujamierocis). .

Diemžēl abas kategorijas nonāk vienā un tajā pašā vietā, proti, nodrošinot iespēju izmantot autonomas ieroču sistēmas potenciāli nāvējoši.

Process, lai sasniegtu šo galapunktu, visticamāk, būs atšķirīgs.

Pilnīgi bruņotām autonomām sistēmām, kas tika piesaistītas kā ieroči, ieroču aspekti parasti ir priekšā un centrā. Jūs varētu teikt, ka autonomās sistēmas šķautnes ir apvilktas ap jebkura ieroča stūrakmeni. Izstrādātāju domāšanas process ir nedaudz līdzīgs tam, kā ierocis var izmantot autonomu sistēmu parādīšanos.

Otra perspektīva parasti nav tāda domāšanas veida. Izstrādātāji vēlas iegūt mūsdienīgu autonomu sistēmu, iespējams, cilvēces uzlabošanai. Šie izstrādātāji autonomas sistēmas izveidē iegulda savu sirsnīgāko sirdi un dvēseli. Tas ir viņu izgudrojuma kodols. Viņi varētu neiedomāties, ka kāds uzurpēs vai sagraus viņu brīnumaini izdevīgo ierīci. Viņi ir svētlaimīgi sajūsmā par sociālajiem ieguvumiem, kas saistīti ar autonomās sistēmas veidošanu un ražošanu.

Kādā brīdī pieņemsim, ka trešās puses saprot, ka autonomo sistēmu var pārveidot, lai to ieroci. Varbūt viņi apmāna izstrādātājus, ļaujot viņiem izmantot autonomu sistēmu, kas tiek uzskatīta par augstiem mērķiem. Aiz slēgtām durvīm šie ļaundari izvēlas autonomajai sistēmai viltīgi pievienot ieroču spēju. Voila, nevainība pārvērtās par tiešu ieroci.

Lietas nav jārisina tādā veidā.

Iespējams, izstrādātājiem tika teikts, ka viņi izstrādā nevainīgu autonomu sistēmu, taču tiem, kas finansēja vai virzīja centienus, bija citi mērķi. Varbūt autonomās sistēmas centieni patiešām sākās nevainīgi, bet tad, kad bija jāmaksā rēķini, vadība pārtrauca darījumu ar finansējuma avotu, kas vēlas autonomas sistēmas negodīgu iemeslu dēļ. Vēl viena iespēja ir tāda, ka izstrādātāji zināja, ka vēlāk varētu izmantot ieročus, taču viņi domāja, ka viņi šķērsos šo mokošo tiltu, kad tas kādreiz radīsies. utt.

Ir daudz un daudz dažādu ceļu, kā tas viss notiek.

Jūs varētu interesēt tas, ko esmu aprakstījis iepriekšējās slejās par to, ka pieaug AI ētikas izpratne par divējāda lietojuma mūsdienu AI elementi, sk saite šeit. Ļaujiet man īsumā iepazīstināt jūs ar ātrumu.

AI sistēma, kas ir paredzēta labā nolūkā, dažkārt var būt uz sliktā sliekšņa, iespējams, veicot dažas diezgan vienkāršas izmaiņas, un attiecīgi tiek uzskatīta par divējāda lietojuma sistēmu. Nesen tika ziņots par AI sistēmu, kas tika izveidota, lai atklātu ķīmiskas vielas, kas varētu būt slepkavas, un kuras izstrādātāji vēlējās pārliecināties, ka mēs varam izvairīties no šādām nepareizi izstrādātām ķīmiskām vielām vai būt piesardzīgiem. Izrādās, ka mākslīgo intelektu varētu viegli pielāgot, lai īpaši atklātu šīs slepkavas ķīmiskās vielas un tādējādi potenciāli ļautu ļaundariem uzzināt, ar kādām ķimikālijām potenciāli var tikt izmantoti viņu bezjēdzīgie ļaunie plāni.

Autonomās sistēmas var nepārprotami iekļauties šajā divējāda lietojuma aptverē.

Zināmā mērā tāpēc AI ētika un ētiskais AI ir tik svarīga tēma. AI ētikas priekšraksti liek mums saglabāt modrību. AI tehnologi dažkārt var būt aizņemti ar tehnoloģijām, jo ​​īpaši ar augsto tehnoloģiju optimizāciju. Viņi ne vienmēr ņem vērā lielākas sabiedrības sekas. Lai izveidotu atbilstošu AI, tostarp (varbūt pārsteidzoši vai ironiski) novērtējot, kā AI ētika tiek pieņemta uzņēmumos, ir ļoti svarīgi ievērot AI ētikas domāšanu un to darīt AI attīstībā un darbības jomā.

Papildus AI ētikas priekšrakstu izmantošanai kopumā ir attiecīgs jautājums par to, vai mums vajadzētu pieņemt likumus, kas regulētu dažādus AI lietojumus. Federālā, štata un vietējā līmenī tiek pieņemti jauni likumi, kas attiecas uz AI izstrādes diapazonu un raksturu. Centieni izstrādāt un pieņemt šādus likumus notiek pakāpeniski. AI ētika kalpo vismaz kā pārdomāts pārtraukums, un gandrīz noteikti zināmā mērā tiks tieši iekļauts šajos jaunajos likumos.

Ņemiet vērā, ka daži nelokāmi apgalvo, ka mums nav vajadzīgi jauni likumi, kas aptver AI, un ka mūsu esošie likumi ir pietiekami. Faktiski viņi jau iepriekš brīdina, ka, ja mēs ieviesīsim dažus no šiem AI likumiem, mēs nolaidīsim zelta zosu, ierobežojot AI progresu, kas sniedz milzīgas sabiedrības priekšrocības.

Autonomija un ierocis kā divi priekšraksti

Ir frāze, ko daži izmanto, lai brīdinātu par visu veidu bruņotām autonomām sistēmām, kas tiek radītas kopā kā kautuves roboti.

Tas atklāj papildu aspektu, kas mums būtu jāapsver.

Vai autonomai ieroču sistēmai un/vai autonomai sistēmai, kas ir bruņota, ir jābūt nāvējošu vai slepkavu robotu pārsvarā?

Daži varētu iebilst, ka mēs noteikti esam varējuši nav letāls bruņotas autonomās sistēmas. Tādējādi šajā skatījumā būtu ļoti nepiemēroti lietot tādas frāzes kā slepkavas vai slepkavas roboti. Iespējams, ka variants, kas nav letāls, varētu apspiest vai radīt kaitējumu, kas nav letāls. Šādas sistēmas nenogalina, tām ir mazāka ievainojumu radīšanas spēja. Nepārspīlējiet savas spējas, sakiet tie, kas uzstāj, ka mums nav jābūt aizņemtiem ar tiešu nogalināšanas mašīnu tropu.

Tādējādi mums varētu būt šāds:

  • Nāvējošas autonomas ieroču sistēmas
  • Nāvējošas autonomas sistēmas, kas ir bruņotas
  • Nenāvējošas autonomas ieroču sistēmas
  • Nenāvējošas autonomas sistēmas, kas ir bruņotas

Protams, pretarguments ir tāds, ka jebkurai autonomai sistēmai, kas ir bruņota, šķiet, ir potenciāls slīdēt letalitātes jomā, pat ja šķiet, ka tā ir paredzēta izmantošanai, kas nav letāla. Divas pakāpeniskas pakāpeniskas pārejas no nenāvējoša uz letālu darbību tiks veiktas ātri, tiklīdz autonomas sistēmas vidū jau būsit rokā ierocis. Jums būtu grūti nodrošināt dzelžainu garantiju, ka nenāvējošais cilvēks nebūs iekļuvis letālajā arēnā (lai gan daži mēģina to darīt matemātiskā ziņā).

Pirms mēs iedziļināmies šajā vispārējā autonomo sistēmu un ieroču tēmā, varētu būt noderīgi norādīt uz kaut ko citu, kas, lai gan, iespējams, ir acīmredzams, ne vienmēr ir redzami prātā.

Te tas ir:

  • Ir AI aspekts, kas ir neatņemama autonomās sistēmas sastāvdaļa
  • Ir ieroču aspekts, kas ir šī vienādojuma ieroču puse
  • AI var būt arī savstarpēji saistīts ar ieročiem

Izpakosim to.

Mēs pieņemsim, ka mūsdienu autonomajām sistēmām ir nepieciešams AI kā pamatā esošais datorizētais līdzeklis autonomo aspektu izpaušanai. Es to pieminu, jo jūs varētu mēģināt iebilst, ka mēs varētu izmantot ar AI nesaistītas tehnoloģijas un paņēmienus, lai izveidotu autonomas sistēmas, kas, lai gan ir taisnība, šķiet arvien mazāk ticams. Būtībā AI mēdz nodrošināt lielāku autonomijas līmeni, un lielākā daļa attiecīgi izmanto AI augsto tehnoloģiju.

Labi, tāpēc mums ir uz AI balstīta iespēja, kas kaut kādā veidā ir iekļauta autonomajā sistēmā un darbojas, lai vadītu un kontrolētu autonomo sistēmu.

Turiet to rokas stiepiena attālumā kā īkšķa noteikumu.

Šķiet skaidri redzams, ka mums ir jābūt arī kāda veida ieročiem, citādi kāpēc mēs šeit apspriežam autonomo sistēmu tēmu un ieročus. Tātad, jā, acīmredzot, ir viens vai otrs ierocis.

Es negrasos iedziļināties tajā, kāda veida ieroči varētu tikt izmantoti. Jūs varat vienkārši aizstāt jebkādus ieročus, kas ienāk prātā. Var būt precīzi ieroči. Var būt uz masu orientēti iznīcinošie ieroči. Tas varētu būt kaut kas ar lodēm vai šāviņiem. Tas varētu būt kaut kas satur ķīmiskas vielas vai atomu gaistošus komponentus. Saraksts ir bezgalīgs.

Papildu apsvērums ir par to, vai AI ir vai nav savstarpēji saistīts ar ieročiem. AI, iespējams, vienkārši paņem ieročus. Ja četrkājains robots šauj ar ieroci, iespējams, ka ieroci izšauj cilvēks, kuram ir tālvadības pults, kas savienota ar ieroča palaišanu. Sunim līdzīgais robots pārvietojas pa ainu, un tad attālam cilvēkam ir jānospiež sprūda.

No otras puses, mākslīgais intelekts varētu būt sprūda novilcējs. AI, iespējams, tika izstrādāts, lai ne tikai pārvietotos un manevrētu, bet arī aktivizētu ieroci. Šajā ziņā mākslīgais intelekts dara visu, sākot no A līdz Z. Nav atkarības no attāla cilvēka, lai veiktu lietas ieročus. AI ir ieprogrammēts tā darīt.

Lai precizētu šajā konkrētajā autonomo sistēmu izmantošanas gadījumā, kuras ir bruņotas, mums ir šādas iespējas:

  • Autonomā sistēma: AI pilnībā pārvalda autonomo sistēmu
  • Autonomā sistēma: AI pārvalda autonomo sistēmu, taču var iejaukties arī cilpas cilvēks
  • Ieroči: Attālināts cilvēks vada ieročus (AI to nedara)
  • Ieroči: AI pārvalda ieročus, taču var iejaukties arī cilpas cilvēks
  • Ieroči: AI pārvalda ieročus pilnībā atsevišķi

Iepriekš esmu apskatījis cilvēka cilpas variācijas attiecībā uz autonomām sistēmām un autonomiem transportlīdzekļiem, sk. saite šeit.

Kad skatāties uz jautriem video ar dejojošiem un lēkājošiem četrkājainajiem robotiem, parasti tiek uzskatīts, ka tie ir roboti, kurus navigācijai pārvalda tikai mākslīgais intelekts (tā ir pieņemta vai uzskatīta par pareizu etiķeti starp tiem, kas ir dziļi šajos jautājumos). Tas ir tas, ko jūs varētu arī pamatoti pieņemt. Protams, jūs to noteikti nezināt. Iespējams, ka robotus vada attāls cilvēks. Pastāv arī iespēja, ka AI veic daļu no vadīšanas, un to dara arī attālināts cilvēks, kurš var palīdzēt AI, ja robots nokļūst grūtā stāvoklī un nevar skaitļošanas veidā aprēķināt dzīvotspējīgu līdzekli, lai atbrīvotos.

Būtība šeit ir tāda, ka ir daudz dažādu veidu, kā AI un autonomās sistēmas un ieročus var sajaukt. Dažiem ir AI, kas vada autonomu sistēmu, bet nedarbina ieročus. Cilvēks, iespējams, attālināti vada ieročus. Vēl viens aspekts ir tāds, ka ieroči, iespējams, tiek aktivizēti iepriekš, un autonomā sistēma piegādā aktivizēto ieroci, tādējādi AI tieši nepiedalījās ieroča palaišanā per se un tā vietā darbojās kā piegādes transportlīdzeklis. Un var gadīties, ka mākslīgais intelekts ir plaši pazīstams, un tas attiecas arī uz visu autonomās sistēmas aspektu klāstu ieroču izmantošanā.

Izvēlieties savu.

Tikmēr, lūdzu, ņemiet vērā, ka debatēs par šo tēmu svarīgs faktors ir cilpas cilvēks.

Dažas atšķirības ir tādas, ka, ja mākslīgais intelekts veic mērķēšanu un šaušanu (vai neatkarīgi no tā, ko nozīmē ierocis), tad viss komplekts un kaboodle ir pārcēlušies uz bezzemi. Šķietami tas atšķiras no parastajiem šaušanas un aizmirstības ieročiem, kuriem ir iepriekš mērķēta cilvēka noteikta izvēle, piemēram, patrulējošiem bezpilota lidaparātiem, kuriem ir raķete, kas ir gatava šaušanai uz mērķi, kas bija jau cilvēka izvēlēts.

Daži brīnās, kāpēc autonomās sistēmas, kas ir bruņotas, ne vienmēr ietver cilvēku cilpā visā procesā, kad autonomā sistēma atrodas aktīvi notiekošā statusā. Šķiet, ka mums varētu būt labāk, ja stingra prasība būtu tāda, ka visās šādās autonomajās sistēmās ar ieročiem ir jābūt cilpā esošajam cilvēkam, vai nu autonomās sistēmas darbībai, vai ieroču darbināšanai (vai abiem). . Var šķist, ka šajā mākslīgā intelekta maisījumā ir pieņemts, ka cilvēka roka ir droša un stabila.

Sagatavojieties garam iemeslu sarakstam, kāpēc tas ne vienmēr ir iespējams.

Apsveriet šīs grūtības:

  • Cilvēks cilpā var nebūt pietiekami ātrs, lai savlaicīgi reaģētu
  • Personai, kas atrodas cilpā, var nebūt pietiekami daudz informācijas, lai apzinīgi reaģētu
  • Cilvēks cilpā var nebūt pieejams vajadzīgajā laikā
  • Cilvēks cilpā var būt neizlēmīgs un nerīkosies, kad tas būs nepieciešams
  • Cilpas cilvēks var pieņemt “nepareizu” lēmumu (salīdzinoši)
  • Cilvēks cilpā var nebūt pieejams no sistēmas vajadzīgajā laikā
  • Cilvēks cilpā var apjukt un tikt satriekts
  • Utt

Jums neapšaubāmi ir kārdinājums aplūkot šo cilvēcisko vājumu un ierobežojumu sarakstu un pēc tam nonākt pie svinīgā secinājuma, ka ir acīmredzami jēga izgriezt cilpas cilvēku un vienmēr tā vietā izmantot AI. Tas varētu būt, izslēdzot cilvēku cilpā, vai arī, iespējams, AI spēj ignorēt iesakņojušos cilvēka cilpā dizainu. Skatiet manu analīzi par to, kā domstarpības starp AI un cilvēku lokā var izraisīt nestabilas situācijas, kas aprakstītas saite šeit.

Bieži vien šādu reāllaika uz cilvēku vērstu mīnusu saraksts tiek atstāts pats no sevis, un tas atstāj iespaidu, ka mākslīgajam intelektam kaut kādā veidā ir jābūt lēcieniem un robežām, kas ir daudz saprātīgāka izvēle nekā cilvēka lokā. . Neiekrītiet tajās nodevīgajās lamatās. Ir iesaistīti prātīgi kompromisi.

Apsveriet šīs AI sekas:

  • AI var saskarties ar kļūdu, kuras dēļ tas tiek maldināts
  • AI var būt pārslogots un nereaģēt
  • AI var saturēt izstrādātāju kļūdas, kas izraisa nepareizu uzvedību
  • AI var būt bojāts ar implantētu ļaundaru vīrusu
  • AI var pārņemt kiberhakeri reāllaikā
  • AI sarežģītības dēļ var uzskatīt par neparedzamu
  • AI var skaitļošanas rezultātā pieņemt “nepareizu” lēmumu (salīdzinoši)
  • Utt

Es ticu, ka redzat, ka pastāv kompromisi starp cilpas cilvēka izmantošanu un paļaušanos tikai uz AI. Ja rodas kārdinājums ieteikt, ka gatavais risinājums ir izmantot abus, es tikai vēlos uzsvērt, ka jūs varat iegūt labāko no abām pasaulēm, taču varat arī iegūt sliktāko no abām pasaulēm. Nedomājiet, ka tas vienmēr un noteikti būs labākais no abām pasaulēm.

Jūs varētu būt pārsteigts par vienu no iepriekš uzskaitītajiem AI trūkumiem, jo ​​īpaši par to, ka AI varētu būt neprognozējamas. Mēs esam pieraduši uzskatīt, ka AI ir jābūt stingri loģiskam un matemātiski precīzam. Tādējādi jūs varētu arī sagaidīt, ka AI būs pilnībā paredzams. Mums vajadzētu precīzi zināt, ko AI darīs. Periods, stāsta beigas.

Atvainojiet, ka pārsprāga šis balons, bet šis mīts par paredzamību ir nepareizs nosaukums. Mūsdienu mākslīgā intelekta lielums un sarežģītība bieži vien ir netīrs grīslis, kas izaicina būt pilnīgi paredzams. Tas ir redzams ētiskā AI satraukumos par dažiem mūsdienu mašīnmācības (ML) un dziļās mācīšanās (DL) lietojumiem. Es īsumā paskaidrošu mazliet vairāk.

Varat arī apskatīt manu jaunāko analīzi par gaidāmajām tendencēm, lai mēģinātu nodrošināt pārbaudāmas un matemātiski pierādāmas AI sistēmas, izmantojot jaunāko AI drošības informāciju, saite šeit.

Atgremot par ceļu satiksmes noteikumiem

Es minēju mērķu un mērķēšanas jēdzienu, kas ir diezgan noslogots terminoloģijas gabals, kas ir pelnījis lielu uzmanību.

Mēs varam padomāt par to:

  • Mērķi, kas ir cilvēki
  • Mērķi, kas nav cilvēki, bet ir dzīvas radības
  • Mērķi, kas tiek uzskatīti par īpašumiem

Pieņemsim, ka mums ir autonoma sistēma, kas ir bruņota. AI tiek izmantots autonomās sistēmas vadīšanai un ieročiem. AI dara visu, sākot no A līdz Z. Nav paredzēta cilvēka cilpā. Attiecībā uz mērķauditorijas atlasi AI izvēlēsies mērķus. Nav iepriekšējas mērķauditorijas atlases, ko būtu noteikuši cilvēki. Tā vietā mākslīgais intelekts ir ieprogrammēts, lai vispārīgi noskaidrotu, vai ir cilvēki, uz kuriem jāvēršas (iespējams, meklējot naidīgas darbības, noteikta veida formas tērpus utt.).

Ar mani par šo līdz šim?

Šis scenārijs ir gandrīz tas, kas izraisa vislielāko sašutumu par bruņotām autonomām sistēmām.

Paziņotās bažas ir par to, ka AI dara (vismaz) trīs lietas, kuras tai nevajadzētu atļaut darīt:

  • Mērķauditorijas atlase cilvēkiem
  • Mērķauditorijas atlase, neizmantojot cilvēku cilpā
  • Potenciāli neparedzama darbībaly

Ņemiet vērā, ka ir īpaši pieminētas bažas par AI neparedzamību. Iespējams, ka, lai gan mākslīgais intelekts bija ieprogrammēts, lai mērķētu uz noteiktiem cilvēku veidiem, AI programmēšana nav tāda, kā mēs to domājām, un AI galu galā ir vērsta uz "draudzīgiem" papildus tiem, kurus AI vajadzēja uztvert kā "naidīgus". ” (vai varbūt tā vietā). Turklāt, pat ja mēs izvēlamies iekļaut cilpas cilvēku, mākslīgā intelekta neparedzamība varētu nozīmēt to, ka tad, kad mākslīgajam intelektam ir jāsazinās ar cilvēku cilpā, tas to neizdodas. tā un darbojas bez cilvēka iejaukšanās.

Jūs varētu interesēt tas, ka Starptautiskā Sarkanā Krusta komiteja (ICRC) ir piedāvājusi trīs punktu visaptverošu nostāju attiecībā uz autonomām ieroču sistēmām, kas detalizēti risina šāda veida problēmas (saskaņā ar ICRC tīmekļa vietni):

1. “Jābūt skaidri noteiktam par neparedzamām autonomām ieroču sistēmām ārā, jo īpaši to neizšķirīgās ietekmes dēļ. To vislabāk varētu panākt, aizliedzot autonomas ieroču sistēmas, kas ir izstrādātas vai izmantotas tā, ka to ietekmi nevar pietiekami saprast, paredzēt un izskaidrot.

2. “Ņemot vērā ētiskus apsvērumus, lai aizsargātu cilvēci un ievērotu starptautisko humanitāro tiesību noteikumus civiliedzīvotāju un kaujinieku aizsardzībai hors de combat, autonomu ieroču sistēmu izmantošana cilvēku mērķēšanai ir jāizslēdz. To vislabāk varētu panākt, aizliedzot autonomas ieroču sistēmas, kas paredzētas vai tiek izmantotas spēka pielietošanai pret personām.

3. “Lai aizsargātu civiliedzīvotājus un civilos objektus, ievērotu starptautisko humanitāro tiesību noteikumus un aizsargātu cilvēci, autonomo ieroču sistēmu izstrāde un izmantošana, kas nebūtu aizliegta, būtu jāreglamentē, tostarp kombinējot: mērķa veidu ierobežojumi, piemēram, ierobežojot tos ar objektiem, kas pēc būtības ir militāri mērķi; izmantošanas ilguma, ģeogrāfiskās darbības jomas un mēroga ierobežojumi, tostarp, lai nodrošinātu cilvēku spriestspēju un kontroli saistībā ar konkrētu uzbrukumu; lietošanas situāciju ierobežojumi, piemēram, ierobežojot tos situācijās, kad neatrodas civiliedzīvotāji vai civilie objekti; rprasības cilvēka un mašīnas mijiedarbībai, jo īpaši, lai nodrošinātu efektīvu cilvēku uzraudzību un savlaicīgu iejaukšanos un deaktivizēšanu.

Saistībā ar to Apvienoto Nāciju Organizācija (ANO), izmantojot Konvenciju par noteiktiem konvencionālajiem ieročiem (CCW), Ženēvā ir noteikusi vienpadsmit nesaistošus vadošos principus nāvējošo autonomo ieroču jomā, kā norādīts tiešsaistē publicētajā oficiālajā ziņojumā (ietverot atsauces uz atbilstošām starptautiskām humanitārajām jomām). Likums vai SHL noteikumi):

a) Starptautiskās humanitārās tiesības turpina pilnībā piemērot visām ieroču sistēmām, tostarp potenciālai letālu autonomu ieroču sistēmu izstrādei un izmantošanai;

b) Jāsaglabā cilvēku atbildība par lēmumiem par ieroču sistēmu izmantošanu, jo atbildību nevar pārnest uz mašīnām. Tas būtu jāņem vērā visā ieroču sistēmas dzīves ciklā;

c) Cilvēka un mašīnas mijiedarbībai, kas var izpausties dažādos veidos un tikt īstenota dažādos ieroča dzīves cikla posmos, būtu jānodrošina, ka uz jaunām tehnoloģijām balstītu ieroču sistēmu potenciālā izmantošana letālo autonomo ieroču sistēmu jomā tiek izmantota atbilstība piemērojamajām starptautiskajām tiesībām, jo ​​īpaši SHT. Nosakot cilvēka un mašīnas mijiedarbības kvalitāti un apjomu, jāņem vērā vairāki faktori, tostarp darbības konteksts, kā arī visas ieroču sistēmas īpašības un iespējas;

d) atbildība par jebkuru jaunu ieroču sistēmu izstrādi, izvietošanu un izmantošanu saskaņā ar CCW ir jānodrošina saskaņā ar piemērojamiem starptautiskajiem tiesību aktiem, tostarp izmantojot šādas sistēmas atbildīgā cilvēku komandķēdē;

e) saskaņā ar valstu saistībām saskaņā ar starptautiskajām tiesībām, pētot, attīstot, iegādājoties vai pieņemot jaunu ieroci, līdzekļus vai kara metodes, ir jānosaka, vai tā izmantošana dažos vai visos apstākļos būtu aizliegts ar starptautiskajām tiesībām;

f) izstrādājot vai iegādājoties jaunas ieroču sistēmas, kuru pamatā ir jaunas tehnoloģijas nāvējošu autonomu ieroču sistēmu, fiziskās drošības, atbilstošu nefizisku aizsardzības pasākumu (tostarp kiberdrošības pret uzlaušanu vai datu viltošanu) jomā, teroristu grupu iegādāšanās risku. ir jāņem vērā izplatīšanas risks;

g) riska novērtējumam un mazināšanas pasākumiem vajadzētu būt daļai no jaunu tehnoloģiju izstrādes, izstrādes, testēšanas un ieviešanas cikla jebkurā ieroču sistēmā;

h) būtu jāapsver jauno tehnoloģiju izmantošana letālo autonomo ieroču sistēmu jomā, lai nodrošinātu atbilstību SHT un citām piemērojamām starptautiskām juridiskām saistībām;

i) izstrādājot iespējamos politikas pasākumus, jaunās tehnoloģijas nāvējošo autonomo ieroču sistēmu jomā nevajadzētu antropomorfizēt;

j) diskusijām un jebkādiem iespējamiem politikas pasākumiem, kas veikti saistībā ar CCW, nevajadzētu kavēt progresu attiecībā uz viedo autonomo tehnoloģiju miermīlīgu izmantošanu vai piekļuvi tām;

k) CCW piedāvā atbilstošu sistēmu, lai risinātu jautājumu par jaunām tehnoloģijām nāvējošo autonomo ieroču sistēmu jomā saistībā ar Konvencijas mērķiem un mērķiem, kuras mērķis ir panākt līdzsvaru starp militāro nepieciešamību un humāniem apsvērumiem.

Grūtības, kurās atrodamies

Šie dažādie kara likumi, bruņotu konfliktu likumi vai IHL (Starptautiskie humanitārie likumi) kalpo kā svarīgs un daudzsološs ceļvedis, lai apsvērtu, ko mēs varētu mēģināt darīt autonomu sistēmu rašanās gadījumā, kas ir apbruņotas, neatkarīgi no tā, vai tās ir pamatakmens konstrukcijas vai pēc fakta metodēm.

Mēs varam no sirds vēlēties, lai tiktu stingri un paklausīgi ievērots letālo ieroču autonomo sistēmu aizliegums. Problēma ir tā, ka jebkurā no sirsnīgākajiem aizliegumiem var viltīgi atrast daudz brīvas vietas. Kā saka, noteikumi ir domāti, lai tos pārkāptu. Varat saderēt, ka tur, kur lietas ir zosīgas, draņķis novērsīs nepilnības un mēģinās pamirkšķināt ar aci, kā apiet noteikumus.

Šeit ir dažas iespējamās nepilnības, kuras ir vērts apsvērt:

  • Pretenzijas, kas nav letālas. Veidot nav letāls autonomas ieroču sistēmas (šķietami labi, jo tas ir ārpus aizlieguma robežas), kuras pēc tam varat pārvērst par nāvējošu (aizliegums tiks sasniegts tikai pēdējā brīdī).
  • Tikai autonomās sistēmas pretenzijas. Ievērojiet aizliegumu, neveidojot autonomas sistēmas, kas vērstas uz letālu iznākumu, savukārt panākiet tik lielu progresu ikdienas autonomo sistēmu izstrādē, kuras (vēl) nav aprīkotas ar ieročiem, bet kuras jūs varat viegli pārveidot par ieročiem.
  • Pretenzijas, kas nav integrētas kā viens. Izstrādājiet autonomas sistēmas, kas nemaz nav bruņotas, un, kad pienāks laiks, izveidojiet ieročus tādā veidā, lai jūs varētu mēģināt dedzīgi apgalvot, ka tie ir divi atsevišķi elementi un tāpēc apgalvot, ka tie neietilpst "viss vienā" rubrikā. autonomā ieroču sistēma vai tās brālēns.
  • Apgalvo, ka tas nav autonoms. Izveidojiet ieroču sistēmu, kas, šķiet, nav autonoma. Atstājiet vietu šajā, domājams, neautonomajā sistēmā, lai samazinātu uz AI balstītu autonomiju. Ja nepieciešams, pievienojiet autonomiju un esat gatavs ripot (līdz tam šķietami jūs aizliegumu nepārkāpāt).
  • cits

Mēģinot pilnībā aizliegt letālas autonomas ieroču sistēmas, ir daudz citu izteiktu grūtību. Es apskatīšu vēl dažus no tiem.

Daži eksperti apgalvo, ka aizliegums nav īpaši lietderīgs, un tā vietā vajadzētu būt reglamentējošiem noteikumiem. Ideja ir tāda, ka šie ieroči būs atļauti, taču tie tiks stingri kontrolēti. Ir izklāstīta likumīgu lietojumu litānija, kā arī likumīgi mērķēšanas veidi, likumīgi spēju veidi, likumīga samērīgums un tamlīdzīgi.

Pēc viņu domām, tiešs aizliegums ir tas pats, kas iebāzt galvu smiltīs un izlikties, ka zilonis telpā neeksistē. Tomēr šis strīds liek uzvārīties tiem, kas iebilst pret argumentu, ka, ieviešot aizliegumu, jūs varat krasi samazināt citādi kārdinājumu īstenot šāda veida sistēmas. Protams, daži lielīsies ar aizliegumu, bet vismaz cerams, ka lielākā daļa to nedarīs. Pēc tam jūs varat koncentrēt savu uzmanību uz ņirgāšanos un jums nav jāšķeļ jūsu uzmanība visiem.

Šīs debates rit apļa un apļa.

Vēl viena bieži atzīmēta problēma ir tāda, ka pat tad, ja labais ievēro aizliegumu, sliktais to nedarīs. Tas nostāda labo sliktā pozā. Sliktajiem būs šāda veida bruņotas autonomas sistēmas, bet labajiem nebūs. Tiklīdz lietas ir atklātas, ka sliktajiem tās ir, būs par vēlu, lai labos panāktu. Īsāk sakot, vienīgā gudrā lieta, kas jādara, ir sagatavoties cīņai ar uguni ar uguni.

Ir arī klasisks atturēšanas strīds. Ja ir laba izvēle izveidot bruņotas autonomas sistēmas, to var izmantot, lai atturētu sliktos no mēģinājumiem iekļūt strīdā. Vai nu labie būs labāk bruņoti un tādējādi atturēs sliktos, vai arī labie būs gatavi, kad sliktie, iespējams, atklās, ka viņi visu laiku ir slepus veidojuši šīs sistēmas.

Pret šiem skaitītājiem ir tas, ka, veidojot bruņotas autonomas sistēmas, jūs rīkojat bruņošanās sacensību. Otra puse centīsies iegūt to pašu. Pat ja viņi tehnoloģiski nespēs izveidot šādas sistēmas no jauna, viņi tagad varēs nozagt "labo" plānus, pārveidot augsto tehnoloģiju iekšas vai atdarināt visu, ko viņi, šķiet, uzskata par pārbaudītu un patiesu. veids, kā paveikt darbu.

Aha, daži replikas, tas viss varētu novest pie konfliktu samazināšanās, šķietami savstarpēji. Ja puse A zina, ka B pusē ir nāvējoši autonomo sistēmu ieroči, un puse B zina, ka A pusei tie ir, viņi var sēdēt cieši un nesaņemt sitienus. Tam piemīt savstarpēji nodrošinātas iznīcināšanas (MAD) atšķirīgā aura.

Un tā tālāk.

AI autonomijā

Pārliecināsimies, ka esam vienisprātis par mūsdienu AI būtību.

Mūsdienās nav AI, kas būtu jūtīgs. Mums šī nav. Mēs nezinām, vai jutīgais AI būs iespējams. Neviens nevar precīzi paredzēt, vai mēs sasniegsim jutīgu AI, kā arī to, vai jutīgs AI kaut kā brīnumaini spontāni radīsies skaitļošanas kognitīvās supernovas veidā (parasti saukta par singularitāti, skatiet manu pārklājumu vietnē saite šeit).

AI veids, uz kuru es koncentrējos, sastāv no nejūtošā AI, kas mums ir šodien. Ja mēs gribējām mežonīgi spekulēt par jūtīgs AI, šī diskusija varētu virzīties radikāli citā virzienā. Domājams AI būtu cilvēka kvalitātes. Jums jāņem vērā, ka jutīgais AI ir cilvēka kognitīvs ekvivalents. Vēl jo vairāk, tā kā daži uzskata, ka mums varētu būt superinteliģents AI, iespējams, ka šāds AI varētu būt gudrāks par cilvēkiem (manu superinteliģentā AI kā iespēju izpēti sk. pārklājums šeit).

Turēsim lietas piezemētākas un apsvērsim mūsdienu skaitļošanas nejūtīgo AI.

Saprotiet, ka mūsdienu mākslīgais intelekts nespēj “domāt” tādā pašā veidā kā cilvēka domāšana. Mijiedarbojoties ar Alexa vai Siri, sarunu spējas var šķist līdzīgas cilvēka spējām, taču patiesībā tās ir skaitļošanas iespējas un tām trūkst cilvēka izziņas. Jaunākajā AI laikmetā ir plaši izmantota mašīnmācīšanās (ML) un dziļā mācīšanās (DL), kas izmanto skaitļošanas modeļu saskaņošanu. Tas ir novedis pie AI sistēmām, kas izskatās pēc cilvēkiem līdzīgas tieksmes. Tikmēr mūsdienās nav neviena mākslīgā intelekta, kam būtu veselais saprāts un arī cilvēka spēcīgas domāšanas izziņas brīnums.

Esiet ļoti uzmanīgs, antropomorfizējot mūsdienu AI.

ML/DL ir skaitļošanas modeļu saskaņošanas veids. Parastā pieeja ir tāda, ka jūs apkopojat datus par lēmumu pieņemšanas uzdevumu. Jūs ievadāt datus ML/DL datoru modeļos. Šie modeļi cenšas atrast matemātiskos modeļus. Pēc šādu modeļu atrašanas, ja tādi tiek atrasti, AI sistēma izmantos šos modeļus, sastopoties ar jauniem datiem. Uzrādot jaunus datus, pašreizējā lēmuma pieņemšanai tiek piemēroti modeļi, kuru pamatā ir “vecie” vai vēsturiskie dati.

Es domāju, ka jūs varat uzminēt, kurp tas virzās. Ja cilvēki, kas ir pieņēmuši pieņemtus lēmumus, ir iekļāvuši nevēlamus aizspriedumus, pastāv iespēja, ka dati to atspoguļo smalki, bet nozīmīgi. Mašīnmācīšanās vai dziļās mācīšanās skaitļošanas modeļu saskaņošana vienkārši mēģinās attiecīgi matemātiski atdarināt datus. AI radītajā modelēšanā per se nešķiet veselais saprāts vai citi jūtīgi aspekti.

Turklāt AI izstrādātāji, iespējams, arī neapzinās, kas notiek. Arkāniskā matemātika ML/DL var apgrūtināt tagad slēpto aizspriedumu novēršanu. Jūs pamatoti cerat un gaidāt, ka AI izstrādātāji pārbaudīs potenciāli apraktos aizspriedumus, lai gan tas ir sarežģītāk, nekā varētu šķist. Pastāv liela iespēja, ka pat ar salīdzinoši plašu testēšanu ML/DL modeļu atbilstības modeļos joprojām būs novirzes.

Jūs varētu mazliet izmantot slaveno vai bēdīgi slaveno sakāmvārdu par atkritumu savākšanu. Lieta ir tāda, ka tas vairāk līdzinās aizspriedumiem, kas mānīgi tiek iepludināti, AI iegremdējot aizspriedumus. AI lēmumu pieņemšanas algoritms (ADM) aksiomātiski kļūst piekrauts ar nevienlīdzību.

Nav labi.

Ar šo pievienoto pamatinformāciju mēs atkal pievēršamies autonomajām sistēmām un ieroču izmantošanai. Mēs iepriekš redzējām, ka AI iekļaujas autonomās sistēmas komponentā un var iekļūt arī ieroču komponentā. Mūsdienu mākslīgais intelekts nav jūtīgs. To ir vērts atkārtot, un es to izcelšu, lai sniegtu papildu ieskatu šajos jautājumos.

Izpētīsim dažus scenārijus, lai redzētu, kā tas ir būtisks apsvērums. Es uz brīdi pārslēgšos no kara laika orientācijas par šo tēmu un parādīšu, kā tā caurstrāvo daudzus citus sociālos vidi. Attiecīgi nostipriniet sevi.

Uz mākslīgo intelektu balstīta autonoma sistēma, piemēram, autonoms transportlīdzeklis, kam, teiksim, nav nekāda sakara ar ieročiem, izplatās parastā vietā. Cilvēks nāk līdzi, lai izmantotu autonomo transportlīdzekli. Persona ir bruņota ar priekšnojautu ieroci. Šajā konkrētajā scenārijā diskusiju labad pieņemiet, ka personai ir prātā kaut kas nevēlams. Persona iekāpj autonomajā transportlīdzeklī (nesot ieroci, paslēptu vai neslēptu, jebkurā gadījumā).

Autonomais transportlīdzeklis virzās uz jebkuru braucēja pieprasīto galamērķi. Šajā gadījumā mākslīgais intelekts vienkārši programmatiski nogādā šo pasažieri no vienas uzņemšanas vietas uz norādīto galamērķi, tāpat kā tas ir darījis, iespējams, desmitiem vai simtiem braucienu katru dienu.

Ja tas būtu bijis cilvēka vadītājs un cilvēka vadīts transportlīdzeklis, domājams, ka cilvēks-šoferis saprastu, ka pasažieris ir bruņots un viņam, šķiet, ir nevēlami nodomi. Cilvēka vadītājs var atteikties vadīt transportlīdzekli. Vai arī cilvēks vadītājs var aizbraukt uz policijas iecirkni. Vai varbūt vadītājs cilvēks varētu mēģināt pakļaut bruņotu pasažieri (ir ziņots par gadījumiem) vai atrunāt pasažieri no ieroča lietošanas. Tas ir diezgan sarežģīti, un var pastāvēt dažādi varianti. Jums būtu grūti apgalvot, ka ir tikai viena pareizā atbilde, lai atrisinātu šādu grūtību. Diemžēl situācija ir satraucoša un acīmredzami bīstama.

Maz ticams, ka šajā gadījumā AI būs ieprogrammēts kādai no šīm iespējām. Īsāk sakot, bruņots pasažieris varētu izmantot savu ieroci, veicot to no autonomā transportlīdzekļa, braukšanas brauciena laikā. AI braukšanas sistēma turpinās pārvietoties, un autonomais transportlīdzeklis turpinās virzīties uz norādīto pasažiera apzīmējumu (pieņemot, ka galamērķis citādi netika uzskatīts par ārpus robežām).

Lielākā daļa mūsdienu AI braukšanas sistēmu skaitļošanas veidā koncentrētos tikai uz brauktuvi, nevis uz braucēja centieniem.

Lietas var pasliktināties par šo.

Pieņemsim, ka kāds vēlas, lai pārtikas preču ķekars tiktu pārvests uz vietu, kur tiek ņemta papildu pārtika trūcīgajiem. Persona pieprasa autonomu transportlīdzekli un novieto pārtikas maisiņus transportlīdzekļa aizmugurējā sēdeklī. Viņi nebrauks līdzi un tikai izmanto autonomo transportlīdzekli, lai piegādātu viņiem pārtikas maisiņus.

Šķiet pilnīgi labi.

Iedomājieties, ka nekaunīgs cilvēks izvēlas autonomajā transportlīdzeklī ievietot kādu ieroču veidu, nevis mierīgāku pārtikas preču maisiņu jēdzienu. Es domāju, ka jūs varat uzminēt, kas varētu notikt. Šīs ir bažas, par kurām es esmu vairākkārt mudinājis savās slejās un iepriekš brīdinājis, ka mums ir jātiek galā ātrāk nekā vēlāk.

Viena no piedāvātajām atbildēm uz šāda veida scenārijiem ir tāda, ka, iespējams, visus autonomos transportlīdzekļus varētu ieprogrammēt tā, lai tie izmantotu to kameras un citus sensorus, lai mēģinātu noteikt, vai potenciālais pasažieris ir bruņots un viņam ir nelietīgi nodomi. Varbūt AI būtu ieprogrammēts tā darīt. Vai arī mākslīgais intelekts elektroniski un klusi brīdina attālu cilvēku, kurš pēc tam ar kameru starpniecību vizuāli un citādi pārbaudītu un, iespējams, mijiedarbotos ar pasažieri. Tas viss ir daļa no sarežģītas un potenciāli neatrisināmas tārpu tvertnes, kas rada nopietnas privātuma problēmas un daudz citu potenciālu ētisku AI problēmu. Skatiet manu pārklājumu vietnē saite šeit.

Vēl viena nedaudz līdzīga alternatīva ir tāda, ka AI satur kaut kādu iegultu ētikas programmu, kas mēģina ļaut AI pieņemt ētiskus vai morālus spriedumus, kas parasti ir paredzēti cilvēku lēmumu pieņēmējiem. Esmu pārbaudījis šos AI iegultos skaitļošanas ētikas prognozētājus, sk. saite šeit un saite šeit.

Atgriežoties pie kaujas lauka scenārija, iztēlojieties, ka virs kaujas zonas galvas ir nāvējoša autonoma ieroču sistēma. AI pārvalda autonomo sistēmu. AI izmanto ieročus uz klāja. Mēs jau iepriekš domājām par iespēju, ka mākslīgais intelekts varētu būt ieprogrammēts, lai meklētu šķietami naidīgas kustības vai citus cilvēku mērķu rādītājus, kas tiek uzskatīti par derīgiem kaujiniekiem.

Vai šim pašam mākslīgajam intelektam vajadzētu būt kaut kādai uz ētiku orientētam komponentam, kas mēģina skaitļošanas veidā apsvērt, ko varētu darīt cilpas cilvēks, kas savā ziņā darbojas cilpas cilvēka vietā?

Daži saka, jā, turpināsim to. Daži šausmās atgrūžas un saka, ka tas ir vai nu neiespējami, vai kā citādi pārkāpj cilvēces svētumu.

Vēl viena tārpu kārba.

Secinājumi

Tiem no jums, kurus interesē šī tēma, ir vēl daudz kas jāapspriež.

Es jums ātri nogaršošu vienu kaitinošu mīklu.

Mēs parasti sagaidām, ka cilvēks galu galā būs atbildīgs par visu, kas notiek kara laikā. Ja mākslīgais intelekts kontrolē autonomu ieroču sistēmu vai autonomu sistēmu, kas, iespējams, ir bruņota, un šī sistēma kaujas laukā dara kaut ko tādu, kas tiek uzskatīts par neapzinīgu, kurš vai kas par to ir vainojams?

Jūs varētu iebilst, ka AI ir jāsauc pie atbildības. Bet, ja tā, ko tas īsti nozīmē? Mēs vēl neuzskatām, ka mūsdienu AI ir juridiskas personas iemiesojums, skatiet manu skaidrojumu vietnē saite šeit. AI gadījumā ēzelim astes nepiespraušana. Varbūt, ja AI kādreiz kļūs jūtīgs, varat mēģināt to darīt. Līdz tam laikam tas ir nedaudz sasniedzams (turklāt, kādi sodi vai sekas AI tiktu pakļautas, skatiet manu analīzi vietnē saite šeit un saite šeit, piemēram).

Ja AI nav atbildīgais aizdomās turamais, mēs, protams, varētu teikt, ka neatkarīgi no tā, ko cilvēks vai cilvēki ir radījis AI, ir jāatbild. Vai jūs varat to izdarīt, ja mākslīgais intelekts darbināja tikai autonomu sistēmu un daži cilvēki to apvienoja ar ieročiem? Vai jūs sekojat AI izstrādātājiem? Vai tie, kas izvietoja AI? Vai tikai ierocis aktieris?

Es ticu, ka jūs saprotat, ka savā sirsnīgajā diskusijā esmu pieskāries tikai aisberga virsotnei.

Pagaidām turpināsim un beigsim šo diskursu. Jūs varētu atcerēties, ka Džons Lailijs iekšā Euphues: Asprātības anatomija 1578. gadā neaizmirstami paziņoja, ka mīlestībā un karā viss ir godīgi.

Vai viņš būtu domājis par autonomu ieroču sistēmu rašanos un arī autonomu sistēmu parādīšanos, kuras ir bruņotas?

Mums tas noteikti ir nekavējoties jāliek prātā.

Avots: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- velnišķīgi iebruņotas ieroču sistēmas un autonomo sistēmu ekspluatācija/