AI ētika apsver juridiski noteikto izpirkšanas līdzekļu ieguvumus, lai nodrošinātu atbildību par AI sliktu rīcību

Kurš vainīgs?

Tas varētu šķist vienkāršs jautājums, lai gan leģendārā Ebota un Kostello dueta slavenajā komēdijā par beisbola komandu “kurš” var būt mulsinošs. Jūs varētu neskaidri būt pazīstams ar Kurš ir pirmais komēdijas rutīna, ko viņi padarīja par vienu no visu laiku noturīgākajām sērijām (brīdinājums par spoileri tiem, kas to vēl nav dzirdējuši).

Abots stāsta Kostello, ka Kurš ir pirmais, Kas ir otrais un I Don't Know ir trešajā. Asprātīgā viltība ir tāda, ka pirmais pamatsastāva spēlētājs tiek nosaukts Kas, otrais pagrabstāvs ir nosaukts Kas, bet trešais ir nosaukts par Es nezinu. Protams, šīm frāzēm ir arī sava parastā nozīme, un tādējādi mēģinājums interpretēt Abbota teikto var būt pilnīgi mulsinoši. Patiešām, Kostello uzdod šķietami nekaitīgu jautājumu par to, kurš ir pirmais, uz kuru atbilde ir stingri apstiprināta. Bet Kostello tam nav jēgas, jo viņš gaidīja vārdu un tā vietā saņēma mulsinošu atbildi "jā".

Pārslēdzot pārnesumus, runājot par mākslīgā intelekta (AI) parādīšanos, viens no satraucošākajiem jautājumiem, kas tiek uzdots, ir saistīts ar to, kurš vai varbūt kas tiks saukts pie atbildības, ja mākslīgais intelekts ir nomaldījies.

Esmu jau iepriekš apspriedis kriminālatbildību par gadījumiem, kad AI izraisa vai veic noziedzīgas darbības. Skatiet manus rakstus vietnē saite šeit. Ir arī jautājums par civiltiesisko atbildību, piemēram, pret kuru vai ko jūs varētu iesūdzēt tiesā, ja mākslīgais intelekts ir nodarījis jums nepareizi, un šī ir tēma, par kuru es šeit runāšu. Tam visam ir būtiski AI ētikas apsvērumi. Manu pastāvīgo un plašo AI ētikas un ētikas AI atspoguļojumu skatiet saite šeit un saite šeit, tikai nosaukt dažus.

AI ētikas priekšraksti liek mums saglabāt modrību. AI tehnologi dažkārt var būt aizņemti ar tehnoloģijām, jo ​​īpaši ar augsto tehnoloģiju optimizāciju. Viņi ne vienmēr ņem vērā lielākas sabiedrības sekas. AI ētikas domāšana un tā integrācija AI attīstībā un darbības jomā ir ļoti svarīga, lai izveidotu atbilstošu AI, tostarp (varbūt pārsteidzoši vai ironiski) novērtējot, kā AI ētika tiek pieņemta uzņēmumos.

Papildus AI ētikas priekšrakstu izmantošanai kopumā ir attiecīgs jautājums par to, vai mums vajadzētu pieņemt likumus, kas regulētu dažādus AI lietojumus. Federālā, štata un vietējā līmenī tiek pieņemti jauni likumi, kas attiecas uz AI izstrādes diapazonu un raksturu. Centieni izstrādāt un pieņemt šādus likumus notiek pakāpeniski. AI ētika kalpo vismaz kā pārdomāts pārtraukums, un gandrīz noteikti zināmā mērā tiks tieši iekļauts šajos jaunajos likumos.

Ņemiet vērā, ka daži nelokāmi apgalvo, ka mums nav vajadzīgi jauni likumi, kas aptver AI, un ka mūsu esošie likumi ir pietiekami. Patiesībā viņi jau iepriekš brīdina, ka, ja mēs ieviesīsim dažus no šiem AI likumiem, mēs nogalināsim zelta zosu, ierobežojot AI progresu, kas sniedz milzīgas sabiedrības priekšrocības.

Notiek karstas debates par to, vai esošie likumi spēj adekvāti risināt AI sistēmu rašanos visā sabiedrībā. Juridiskajai atbildībai parasti ir nepieciešams, lai jūs varētu piespraust ēzeļa asti, lai noskaidrotu, kurš ir atbildīgs par kaitīgu rīcību. AI gadījumā var būt diezgan neskaidrs ceļš, kas saista konkrētu personu vai personas ar AI, kas veica kādu kaitīgu darbību. AI var būt lielā mērā neizsekojams līdz avotam vai izgudrotājam, kas veidojis AI.

Vēl viens apsvērums ir tāds, ka pat tad, ja AI saknes var izsekot kādam, jautājums ir par to, vai šī persona vai personas nevarēja saprātīgi paredzēt nelabvēlīgo iznākumu, ko AI galu galā radīja. Paredzamības būtība parasti ir ievērojams faktors juridiskās atbildības novērtēšanā.

Jums varētu rasties kārdinājums domāt, ka varat vienkārši sekot pašam AI un nosaukt AI kā juridisko pusi, kas ir atbildīga vai atbildīga par jebkādu iespējamo kaitējumu. Kopumā dominējošais juridiskais uzskats ir tāds, ka mākslīgais intelekts vēl nav sasniedzis juridiskas personas līmeni. Tādējādi jūs nevarēsit strikti izsakoties censties panākt, lai mākslīgais intelekts atmaksātos, un jums būs jāatrod cilvēki, kas it kā aizkulisēs izmantoja sviras (manu analīzi par AI juridiskas personas statusu sk. saite šeit).

Visā šajā potenciālajā juridiskajā netīrībā iekļūst ideja, kas tiek virzīta kā iespējamais līdzeklis vai nu īstermiņā, vai, iespējams, ilgtermiņa. Ideja ir tāda, ka, iespējams, ir jāizveido īpašs kompensācijas fonds, lai sniegtu finansiālu palīdzību tiem, kam AI ir nodarīts kaitējums. Ja citādi nevarat panākt, lai mākslīgais intelekts jums kompensētu, un jūs nevarat noteikt personas, kuras, iespējams, būtu jāsauc pie atbildības, nākamā labākā iespēja varētu būt kompensācijas fonda izmantošana, kuras mērķis ir palīdzēt tiem, kam AI ir nodarīts kaitējums.

Šāds fonds būtu līdzīgs apdrošināšanas veidam, kā teikts pārdomas rosinošā pētnieciskā dokumentā: “Tas būtībā būtu apdrošināšanas mehānisms pret nenoteiktību: Skaidrs un pārredzams regulējums ātrai kompensācijai gadījumos, kad ir iesniegta atbildības prasība. nav skaidra vai nav izredžu gūt panākumus kaitējošās rīcības neparedzamā rakstura, paša kaitējuma (paveida) vai pārmērīgo izmaksu un/vai procedūras sarežģītības dēļ” (Olīvijas Erdeli un Gabora Erdeļi raksts “The AI ​​Liability Puzzle” Un uz fondiem balstīts risinājums”, Mākslīgā intelekta pētījumu žurnāls, 2021).

Kompensācijas fonds būtu daļa no visaptverošas mākslīgā intelekta garantiju shēmas (AIGS), un to papildinās daži nelieli grozījumi esošajos tiesību aktos par juridisko atbildību. Vieglu pieskārienu, domājams, būtu vieglāk īstenot, un tam nebūtu vajadzīgas smagas juridiskās un sabiedrības satraukuma, ja esošajos tiesiskajos režīmos tiktu veiktas vēl satraucošākas demonstratīvu izmaiņu sērijas. Pētnieki saka: “Tas atspoguļo mūsu pārliecību, ka, neskatoties uz šāda ātra risinājuma pievilcību, nemainīts esošo atbildības noteikumu piemērošana AI vai a protekcionistiski motivēti stingras atbildības izmantošana, lai noteiktu atbildību par katru cenu, nav pareizās atbildes trīs iemeslu dēļ: pirmkārt, ignorējot to, ka šie noteikumi ir pielāgoti dažādiem apstākļiem un tāpēc tie var būt nepiemēroti mākslīgajam intelektam, tie ir pretrunā delikāti līdzsvarotajiem mērķiem. juridiskās atbildības sistēma. Otrkārt, tie kavē mākslīgā intelekta inovācijas, pieņemot nepamatoti sodošu pieeju. Treškārt, nepamatota stingras atbildības izmantošana tikai dogmatiski nekonsekventā veidā apiet paredzamības un vainas problēmas, nevis tās novērš” (kā norādīts iepriekš citētajā dokumentā).

Argumenti par labu šādiem AI kompensācijas fondiem ir šādi:

  • Samazina vajadzību pēc ilgstošiem un dārgiem juridiskiem izmēģinājumiem, lai tiktu galā ar mākslīgā intelekta radīto kaitējumu
  • Pārliecina cilvēkus, ka viņi var izmantot AI un saņemt kompensāciju, ja tiek nodarīts kaitējums
  • Veicina mākslīgā intelekta inovācijas, mazinot juridisko nenoteiktību, ar ko saskaras AI novatori
  • To var nodot lietošanā daudz ātrāk, nekā veikt lielas izmaiņas esošajos likumos
  • Piedāvā salīdzinoši skaidru līdzekli, kas ir uzticams un viegli pieejams
  • cits

Tikmēr tie, kas iebilst pret AI kompensācijas fondu pieeju, saka:

  • Ļaujiet mākslīgā intelekta veidotājiem pārmērīgi atkāpties no āķa un ļaut viņiem izvairīties no atbildības
  • Mudinās mākslīgā intelekta veidotājus izstrādāt mākslīgo intelektu, kam trūkst uzticamas drošības un pienācīgas vadības
  • Var mudināt cilvēkus nepatiesi apgalvot par AI kaitējumu, lai viņi varētu izmantot līdzekļus
  • Izvairās un mazina patieso nepieciešamību pārskatīt mūsu likumus, lai pietiekami pārvaldītu AI
  • Var kļūt par birokrātisku murgu, kas aizplūst un nepareizi izmanto līdzekļus
  • cits

Kā varētu būt acīmredzams, ir gan šī visnotaļ strīdīgā jēdziena piekritēji, gan pretinieki.

Jums būtu grūti īsi izslēgt AI kompensācijas fondu kā potenciālu pieeju pieaugošajām bažām par AI, kas rada kaitējumu. Piedāvātais risinājums nav arī slam dunk.

Viens viedoklis ir tāds, ka mākslīgā intelekta veidotājiem, izstrādājot un izplatot AI, būtu jāiegulda līdzekļi fondos. To varētu uzskatīt par sava veida maksu vai nodokli, kas viņiem ir jāmaksā, lai viņi varētu izplatīt savu AI pasaulei. Bet vai šīs papildu izmaksas potenciāli nomāc jaunuzņēmumu centienus, kas cenšas paplašināt mūsdienu AI robežas? Un kā tiktu nodrošināts, ka mākslīgā intelekta veidotāji maksā nodevas vai nodokļus?

Rodas virkne jautājumu, un tie būtu jāatrisina:

  • Kurās valstīs AI kompensācijas fonds būtu vislabāk īstenojams?
  • Vai varētu izveidot savstarpēji saistītu AI kompensācijas fondu globālu līdzību?
  • Kādi būtu ar šādiem fondiem saistītie detalizētie un praktiski izmantojamie mehānismi?
  • Kā tiek finansēti mākslīgā intelekta kompensācijas fondi (publiskie, privātie, labdarības līdzekļi)?
  • Vai tā būtu apdrošināšanas bāze bez vainas vai tiktu izmantota kāda cita pieeja?
  • Utt

Joma, kurā jau ir izmantota AI kompensācijas fondu ideja, ir autonomas sistēmas, piemēram, autonomi transportlīdzekļi un pašbraucošas automašīnas. Lai iegūtu informāciju par pašbraucošām automašīnām un AI autonomajām sistēmām, sk saite šeit.

Šeit ir skice par to, kā tas varētu darboties ar AI balstītām pašbraucošām automašīnām.

Pieņemsim, ka pašbraucoša automašīna ietriecas velosipēdā. Velosipēda braucējs ir cietis. Velosipēdists var lūgt tiesisku atlīdzību, vajājot autonomā transportlīdzekļa autoražotāju. Vai arī viņi varētu mērķēt uz pašpiedziņas tehnoloģiju uzņēmumu, kas izveidoja AI braukšanas sistēmu. Ja pašbraucošā automašīna tiek izmantota kā autoparks, cita likumīga iespēja būtu vērsties pie autoparka operatora. Mēģinājums iesūdzēt AI tiesā pašlaik nav risinājums, jo AI juridiskā persona vēl nav noteikta.

Tā vietā, lai uzsāktu tiesvedību pret kādu no šīm pusēm, cita iespēja būtu iesniegt pieteikumu vai prasību piemērotā AI kompensācijas fondā. Fonds būtu formalizējis procesus, kas ietver prasības izskatīšanu, un pēc tam noteiks, kā prasītājam varētu tikt sniegti kompensācijas maksājumi. Var būt apelācijas process, kas palīdz prasītājiem, kuri uzskata, ka fonds viņiem ir nepamatoti atteicis, vai arī fonds nav saņēmis pietiekamu kompensāciju.

Teorētiski AI kompensācijas fonds būtu daudz ātrāks ceļš, lai saņemtu kompensāciju par nodarīto kaitējumu. Varat iedomāties, cik darbietilpīga varētu būt tiesas prāva, kurā iesūdzētie uzņēmumi varētu mēģināt vilkt lietu.

Advokāti tomēr varētu uzsvērt, ka mākslīgā intelekta kompensācijas fonds varētu ļaut citām pusēm, piemēram, mākslīgā intelekta veidotājiem, šķietami izvairīties no jebkāda nepārprotama soda par to, ka viņi pazaudēja savu pašbraucošo automašīnu uz koplietošanas ceļiem, kas beidzās ar velosipēda braucēju. Ko vēl šie uzņēmumi varētu "nevērīgi" darīt? Ja pār viņu galvām nekarinās likumīgs zobens, mēs katru dienu varētu saskarties ar mākslīgo intelektu, kas ir pārpilns ar apdraudošām iespējām.

Argumenti rit riņķī.

Secinājumi

AI ētika mums atgādina, ka mums vienmēr ir jāņem vērā AI ētiskās un juridiskās sekas. Šajā AI kompensācijas fondu gadījumā ierosinātais jēdziens par apdrošināšanai līdzīgu līdzekļu kopumu, lai kompensētu tos, kuriem AI ir nodarīts kaitējums, šķiet pievilcīgs. Šķietami līdzekļi tur gaidītu, gatavi tos izmantot un nodrošināt pēc iespējas ātrāku kompensāciju.

Kompromisi par to, vai tas varētu pavērt slūžas, lai radītu AI, kam ir arvien mazāk drošības kontroles, ir biedējošas un pārāk nopietnas bažas. Droši vien mums nevajag pieliet eļļu ugunij, kas varbūt jau ir sākusies.

Vai mēs kaut kādā veidā joprojām varam likt AI veidotājiem izstrādāt atbilstošu ētisko AI un vienlaikus izveidot šos AI kompensācijas fondus?

Daži teiktu, ka jā, mēs varam. Pārveidojot esošos likumus, lai tie atbilstu AI kompensācijas fondiem, tiem, kuriem AI ir nodarīts kaitējums, varētu būt divējāda iespēja meklēt taisnīgu kompensāciju.

Kurš ir pirmais?

Jā, tieši tie (tāpat kā mums visiem) ir pirmais paziņojums, ka mums vajadzētu pārdomāt iespējamo AI kompensācijas fondu izmantošanu un grozīt esošos likumus, pat ja tikai viegli, nodrošinot līdzekļus, lai tiktu galā ar labā AI un slikts AI.

Par šo svarīgo apsvērumu nav neskaidrību.

Avots: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- atbildība/