AI ētika un AI likums, kas precizē, kas patiesībā ir uzticams AI

Uzticība ir viss, tā viņi saka.

Ievērojamais filozofs Lao Tzu teica, ka tiem, kas neuzticas pietiekami, neuzticēsies. Ernests Hemingvejs, cienījamais romānists, teica, ka vislabākais veids, kā noskaidrot, vai kādam var uzticēties, ir uzticēties viņam.

Tikmēr šķiet, ka uzticēšanās ir gan vērtīga, gan trausla. Uzticība, kas cilvēkam ir, var sabrukt kā kāršu namiņš vai pēkšņi uzsprāgt kā izsists balons.

Sengrieķu traģēdiķis Sofokls apgalvoja, ka uzticība mirst, bet neuzticība uzplaukst. Franču filozofs un matemātiķis Dekarts apgalvoja, ka ir saprātīgi nekad pilnībā neuzticēties tiem, kas mūs ir piekrāpuši kaut reizi. Miljardieris biznesa investors, neparastais Vorens Bafets mudināja, ka ir nepieciešami divdesmit gadi, lai izveidotu uzticamu reputāciju, un piecas minūtes, lai to sagrautu.

Jūs varētu būt pārsteigts, uzzinot, ka visi šie dažādie viedokļi un provokatīvie viedokļi par uzticēšanos ir ļoti svarīgi mākslīgā intelekta (AI) ienākšanai.

Jā, ir kaut kas dedzīgi minēts kā uzticams AI kam mūsdienās tiek pievērsta ļoti liela uzmanība, tostarp izsaucienus no AI, kā arī trakulīgiem uzliesmojumiem no tiem, kas nav MI. Vispārējais jēdziens ietver to, vai sabiedrība būs gatava uzticēties tādām kā AI sistēmām.

Jādomā, ja sabiedrība neuzticēsies vai nevar uzticēties AI, pastāv iespēja, ka AI sistēmas nespēs iegūt vilces spēku. AI, kā mēs to pašlaik zinām, tiks nobīdīts malā un tikai savāks putekļus. Šokējoši, ka mākslīgais intelekts var nonākt atkritumu kaudzēs, kas vēsturiski ir bijis tikai izmisīgi izmēģināts, bet iespaidīgi neveiksmīgs augsto tehnoloģiju eksperiments. Jebkuri centieni atjaunot mākslīgo intelektu varētu saskarties ar milzīgu kalnu cīņu, un tos apturētu visa veida iebildumi un tiešie protesti. Acīmredzot neuzticēšanās AI dēļ.

Kas tas būs, vai mums uzticēties AI vai neuzticēties AI?

Būtībā, vai mums patiešām būs uzticams AI?

Tie ir kādreizējie un neatrisinātie jautājumi. Izpakosim to.

AI ētika un cīņa par uzticamu AI

Daudzi MI uzskata, ka AI sistēmu izstrādātāji var iegūt uzticību AI, atbilstoši izstrādājot uzticamu AI. Būtība ir tāda, ka jūs nevarat cerēt iegūt uzticību, ja mākslīgais intelekts nav šķietami uzticams darba sākumā. Izstrādājot AI sistēmas tādā veidā, kas tiek uzskatīts par uzticamu, pastāv liela iespēja, ka cilvēki pieņems AI un izmantos AI.

Viena no šaubām, kas jau šķendējas par šo uzticamo AI apsvērumu, ir tāda, ka mēs, iespējams, jau atrodamies a sabiedrības uzticības deficīts kad runa ir par AI. Varētu teikt, ka mākslīgais intelekts, ko mēs jau esam redzējuši, ir izracis bedri un milzīgos daudzumos sašķobījis uzticību. Tādējādi tā vietā, lai sāktu ar pietiekamu uzticamības bāzi, AI būs pārsteidzoši jāizkāpj no deficīta, iegūstot katru vēlamo papildu uzticības unci, kas būs nepieciešama, lai pārliecinātu cilvēkus, ka AI patiesībā ir uzticams.

Šajā izaicinājumā ir iekļauta mākslīgā intelekta ētika un AI likums.

AI ētika un AI likums ļoti cīnās, cenšoties noskaidrot, kas būs nepieciešams, lai AI padarītu uzticamu. Daži uzskata, ka pastāv formula vai dzelžaini likumi, kas ienesīs AI uzticamās debesīs. Citi norāda, ka būs nepieciešams smags darbs un konsekventa un neatlaidīga AI ētikas un mākslīgā intelekta likuma principu ievērošana, lai iegūtu sabiedrības slavēto uzticību.

Mūsdienu mīkla par uzticēšanos AI pati par sevi nav īpaši jauna.

Varat viegli atgriezties 1990. gadu beigās un izsekot no tiem laikiem meklētās vēlmes pēc “uzticamas skaitļošanas” parādīšanās. Tie bija liela mēroga tehnoloģiju nozares centieni, lai noskaidrotu, vai datorus var izgatavot tā, lai sabiedrība to uzskatītu par uzticamu.

Galvenie jautājumi sastāvēja no:

  • Vai datora aparatūru varētu izveidot tādu, lai tā būtu uzticama?
  • Vai programmatūru varētu izveidot tā, lai tā būtu uzticama?
  • Vai mēs varētu ieviest globālā tīklā savienotus datorus, kas būtu uzticami?
  • Un tā tālāk.

Toreiz un joprojām pastāv uzskats, ka uzticama skaitļošana joprojām ir svētā grāla veids, kas diemžēl joprojām nav mums sasniedzams (kā norādīts dokumentā “Uzticams AI” ACM sakari). Jūs varētu pārliecinoši apgalvot, ka AI ir vēl viena skaitļošanas uzticamības aptveršanas sastāvdaļa, tomēr AI padara uzticības meklēšanu vēl grūtāku un nenoteiktāku. AI ir kļuvis par potenciālo spoileri cīņā par uzticamas skaitļošanas iegūšanu. Iespējams, it kā vājākais ķēdes posms.

Īsi apskatīsim, kāpēc mākslīgais intelekts ir kļuvis mazāk uzticams. Turklāt mēs izpētīsim AI ētikas principus, kas, cerams, palīdzēs nostiprināt jau daļēji zemūdens uztverto uzticību (vai burbuļojošo neuzticību) mūsdienu AI. Manu pastāvīgo un plašo AI ētikas izklāstu skatiet saite šeit un saite šeit, tikai nosaukt dažus.

Viens konkrēts mākslīgā intelekta ētikas segments vai daļa, kas ir saņēmusi lielu plašsaziņas līdzekļu uzmanību, ir mākslīgais intelekts, kas demonstrē nevēlamus aizspriedumus un nevienlīdzību. Jūs varētu zināt, ka tad, kad sākās jaunākā AI ēra, bija milzīgs entuziasma uzliesmojums par to, ko daži tagad sauc. AI uz labu. Diemžēl mēs sākām būt liecinieki šim uzliesmojumam AI For Bad. Piemēram, ir atklāts, ka dažādas uz AI balstītas sejas atpazīšanas sistēmas satur rasu un dzimuma aizspriedumus, par ko esmu runājis saite šeit.

Centieni cīnīties pret AI For Bad aktīvi norisinās. Turklāt skaļš juridisks Mēģinot savaldīt pārkāpumus, notiek arī būtisks grūdiens AI ētikas ievērošanai, lai izlabotu AI neģēlību. Domājams, ka mums ir jāpieņem un jāapstiprina galvenie ētiskie AI principi AI izstrādei un izmantošanai, tādējādi samazinot AI For Bad un vienlaikus sludinot un popularizējot vēlamo AI uz labu.

Saistībā ar to es iestājos par mēģinājumu izmantot AI kā daļu no AI problēmu risinājuma, cīnoties pret uguni ar uguni šādā domāšanas veidā. Piemēram, mēs varētu iegult ētiskos AI komponentus AI sistēmā, kas uzraudzīs, kā pārējais AI dara lietas, un tādējādi, iespējams, reāllaikā uztvers jebkādus diskriminējošus centienus. Skatiet manu diskusiju vietnē saite šeit. Mums varētu būt arī atsevišķa AI sistēma, kas darbojas kā AI ētikas monitora veids. AI sistēma kalpo kā pārraugs, lai izsekotu un noteiktu, kad cits AI nonāk neētiskajā bezdibenī (skatiet manu analīzi par šādām iespējām vietnē saite šeit).

Pēc brīža es dalīšos ar dažiem visaptverošiem principiem, kas ir AI ētikas pamatā. Šur tur ir daudz šāda veida sarakstu. Varētu teikt, ka vēl nav vienota universālas pievilcības un vienprātības saraksta. Tā ir nelaimīgā ziņa. Labā ziņa ir tā, ka vismaz ir viegli pieejami AI ētikas saraksti, un tie mēdz būt diezgan līdzīgi. Kopumā tas liek domāt, ka ar sava veida pamatotu konverģenci mēs atrodam ceļu uz vispārēju kopību tam, no kā sastāv AI ētika.

Pirmkārt, īsi apskatīsim dažus vispārējos ētiskā AI priekšrakstus, lai ilustrētu, kam vajadzētu būt ļoti svarīgam ikvienam, kas izstrādā, izmanto vai izmanto AI.

Piemēram, kā to norādījis Vatikāns Roma aicinājums uz AI ētiku un kā esmu padziļināti aprakstījis plkst saite šeit, šie ir viņu identificētie seši galvenie AI ētikas principi:

  • Pārredzamība: Principā AI sistēmām ir jābūt izskaidrojamām
  • Iekļaušana: Ir jāņem vērā visu cilvēku vajadzības, lai ikviens varētu gūt labumu un visiem indivīdiem varētu piedāvāt vislabākos iespējamos apstākļus, lai izpaustos un attīstītos.
  • Atbildība: Tiem, kas izstrādā un ievieš AI izmantošanu, ir jārīkojas atbildīgi un pārredzami
  • objektivitāte: Neveidojiet un nerīkojieties saskaņā ar aizspriedumiem, tādējādi aizsargājot godīgumu un cilvēka cieņu
  • Uzticamība: AI sistēmām jāspēj darboties uzticami
  • Drošība un privātums: AI sistēmām ir jādarbojas droši un jāievēro lietotāju privātums.

Kā norādīja ASV Aizsardzības departaments (DoD) savā Mākslīgā intelekta izmantošanas ētikas principi un kā esmu padziļināti aprakstījis plkst saite šeit, šie ir viņu seši galvenie AI ētikas principi:

  • Atbildīgais: DoD darbinieki veiks atbilstošu spriedumu un rūpību, vienlaikus paliekot atbildīgi par AI iespēju izstrādi, izvietošanu un izmantošanu.
  • Taisnīgs: Departaments veiks apzinātus pasākumus, lai samazinātu neparedzētu AI iespēju novirzi.
  • Izsekojams: Departamenta mākslīgā intelekta iespējas tiks izstrādātas un izvietotas tā, lai attiecīgajam personālam būtu atbilstoša izpratne par tehnoloģijām, izstrādes procesiem un darbības metodēm, kas piemērojamas mākslīgā intelekta spējām, tostarp par pārredzamām un pārbaudāmām metodoloģijām, datu avotiem, kā arī projektēšanas procedūrām un dokumentāciju.
  • Reliable: Departamenta mākslīgā intelekta iespējām būs skaidri, precīzi definēti lietojumi, un šādu iespēju drošība, drošība un efektivitāte tiks pārbaudīta un garantēta noteiktajos lietojumos visā to dzīves ciklā.
  • Pārvaldāms: Departaments izstrādās un izstrādās mākslīgā intelekta iespējas, lai tās varētu izpildīt paredzētās funkcijas, vienlaikus spējot atklāt un izvairīties no neparedzētām sekām, kā arī atslēgt vai deaktivizēt izvietotās sistēmas, kas demonstrē neparedzētu uzvedību.

Esmu arī apspriedis dažādas AI ētikas principu kolektīvās analīzes, tostarp aptvēru pētnieku izstrādāto kopumu, kurā tika pārbaudīta un apkopota daudzu nacionālo un starptautisko AI ētikas principu būtība rakstā “The Global Landscape Of AI Ethics Guidelines” (publicēts). iekšā daba), un ka mans pārklājums pēta plkst saite šeit, kas noveda pie šī stūrakmens saraksta:

  • Caurspīdīgums
  • Taisnīgums un godīgums
  • Ne-ļaunprātība
  • atbildība
  • Privātums
  • Labums
  • Brīvība un autonomija
  • Uzticēties
  • Ilgtspējība
  • cieņa
  • Solidaritāte

Kā jūs varētu tieši nojaust, mēģināt noteikt šo principu pamatā esošo specifiku var būt ārkārtīgi grūti. Vēl jo vairāk, centieni pārvērst šos plašos principus par kaut ko pilnīgi taustāmu un pietiekami detalizētu, lai tos izmantotu AI sistēmu izstrādē, arī ir grūts rieksts. Kopumā ir viegli pamātīt ar roku par to, kas ir AI ētikas priekšraksti un kā tie vispārīgi jāievēro, savukārt AI kodēšanas situācija ir daudz sarežģītāka, ja tai ir jābūt īstai gumijai, kas saskaras ar ceļu.

AI ētikas principi ir jāizmanto AI izstrādātājiem, kā arī tiem, kas pārvalda AI izstrādes centienus, un pat tiem, kas galu galā ievieš un veic AI sistēmu uzturēšanu. Visas ieinteresētās puses visā AI izstrādes un lietošanas dzīves ciklā tiek uzskatītas par ētiskā AI noteikto normu ievērošanu. Tas ir svarīgs akcents, jo parasti tiek pieņemts, ka “tikai kodētājiem” vai tiem, kas programmē AI, ir jāievēro AI ētikas jēdzieni. Kā minēts iepriekš, ir nepieciešams ciemats, lai izstrādātu un ieviestu AI, un tam visam ciemam ir jābūt pieredzējušam un jāievēro AI ētikas priekšraksti.

Pārliecināsimies arī par mūsdienu mākslīgā intelekta būtību.

Mūsdienās nav AI, kas būtu jūtīgs. Mums šī nav. Mēs nezinām, vai jutīgais AI būs iespējams. Neviens nevar precīzi paredzēt, vai mēs sasniegsim jutīgu AI, kā arī to, vai jutīgs AI kaut kā brīnumaini spontāni radīsies skaitļošanas kognitīvās supernovas veidā (parasti saukta par singularitāti, skatiet manu pārklājumu vietnē saite šeit).

AI veids, uz kuru es koncentrējos, sastāv no nejūtošā AI, kas mums ir šodien. Ja mēs gribējām mežonīgi spekulēt par jūtīgs AI, šī diskusija varētu virzīties radikāli citā virzienā. Domājams AI būtu cilvēka kvalitātes. Jums jāņem vērā, ka jutīgais AI ir cilvēka kognitīvs ekvivalents. Vēl jo vairāk, tā kā daži uzskata, ka mums varētu būt superinteliģents AI, iespējams, ka šāds AI varētu būt gudrāks par cilvēkiem (manu superinteliģentā AI kā iespēju izpēti sk. pārklājums šeit).

Turēsim lietas piezemētākas un apsvērsim mūsdienu skaitļošanas nejūtīgo AI.

Saprotiet, ka mūsdienu mākslīgais intelekts nespēj “domāt” tādā pašā veidā kā cilvēka domāšana. Mijiedarbojoties ar Alexa vai Siri, sarunu spējas var šķist līdzīgas cilvēka spējām, taču patiesībā tās ir skaitļošanas iespējas un tām trūkst cilvēka izziņas. Jaunākajā AI laikmetā ir plaši izmantota mašīnmācīšanās (ML) un dziļā mācīšanās (DL), kas izmanto skaitļošanas modeļu saskaņošanu. Tas ir novedis pie AI sistēmām, kas izskatās pēc cilvēkiem līdzīgas tieksmes. Tikmēr mūsdienās nav neviena mākslīgā intelekta, kam būtu veselais saprāts un arī cilvēka spēcīgas domāšanas izziņas brīnums.

ML/DL ir skaitļošanas modeļu saskaņošanas veids. Parastā pieeja ir tāda, ka jūs apkopojat datus par lēmumu pieņemšanas uzdevumu. Jūs ievadāt datus ML/DL datoru modeļos. Šie modeļi cenšas atrast matemātiskos modeļus. Pēc šādu modeļu atrašanas, ja tādi tiek atrasti, AI sistēma izmantos šos modeļus, sastopoties ar jauniem datiem. Uzrādot jaunus datus, pašreizējā lēmuma pieņemšanai tiek piemēroti modeļi, kuru pamatā ir “vecie” vai vēsturiskie dati.

Es domāju, ka jūs varat uzminēt, kurp tas virzās. Ja cilvēki, kas ir pieņēmuši pieņemtus lēmumus, ir iekļāvuši nevēlamus aizspriedumus, pastāv iespēja, ka dati to atspoguļo smalki, bet nozīmīgi. Mašīnmācīšanās vai dziļās mācīšanās skaitļošanas modeļu saskaņošana vienkārši mēģinās attiecīgi matemātiski atdarināt datus. AI radītajā modelēšanā per se nešķiet veselais saprāts vai citi jūtīgi aspekti.

Turklāt AI izstrādātāji, iespējams, arī neapzinās, kas notiek. Arkāniskā matemātika ML/DL var apgrūtināt tagad slēpto aizspriedumu novēršanu. Jūs pamatoti cerat un gaidāt, ka AI izstrādātāji pārbaudīs potenciāli apraktos aizspriedumus, lai gan tas ir sarežģītāk, nekā varētu šķist. Pastāv liela iespēja, ka pat ar salīdzinoši plašu testēšanu ML/DL modeļu atbilstības modeļos joprojām būs novirzes.

Jūs varētu mazliet izmantot slaveno vai bēdīgi slaveno sakāmvārdu par atkritumu savākšanu. Lieta ir tāda, ka tas vairāk līdzinās aizspriedumiem, kas mānīgi tiek iepludināti, AI iegremdējot aizspriedumus. AI lēmumu pieņemšanas algoritms (ADM) aksiomātiski kļūst piekrauts ar nevienlīdzību.

Nav labi.

Saistīsim to ar jautājumu par uzticamu AI

Šķiet, ka mēs noteikti nebūtu gatavi uzticēties AI, kas demonstrē negatīvas novirzes un diskriminējošas darbības. Mūsu pārliecība tādā gadījumā būtu tāda, ka šāds AI noteikti nav uzticams, tāpēc mēs sliecamies uz aktīvu neuzticēšanos AI. Nepārspīlējot ar antropomorfisku salīdzinājumu (pēc brīža pastāstīšu vairāk par mākslīgā intelekta antropomorfizāciju), cilvēks, kurš izrāda nevēlamus aizspriedumus, arī tiktu novērtēts kā ne īpaši uzticams.

Iedziļināties uzticamībā un uzticamībā

Varbūt mums vajadzētu paskatīties uz to, ko mēs domājam, apgalvojot, ka uzticamies vai neuzticamies kādam vai kaut kam. Pirmkārt, apsveriet vairākas ikdienas vārdnīcas uzticības definīcijas.

Piemēri tam, ko definīcijā nozīmē uzticība, ir:

  • Pārliecināta paļaušanās uz kāda vai kaut kā raksturu, spējām, spēku vai patiesību (Merriam-Webster tiešsaistes vārdnīca).
  • Paļaušanās uz personas vai lietas integritāti, spēku, spējām, galvojumu utt (Dictionary.com)
  • Stingra ticība kāda vai kaut kā uzticamībai, patiesībai, spējām vai spēkam (Oxford Languages ​​tiešsaistes vārdnīca).

Es vēlos norādīt, ka visas šīs definīcijas attiecas uz “kādu” un arī atsaucas uz “kaut ko” kā potenciāli uzticamu. Tas ir ievērojams, jo daži varētu apgalvot, ka mēs uzticamies tikai cilvēkiem un ka uzticēšanās ir paredzēta tikai cilvēcei kā mūsu uzticamības mērķim. Ne tā. Jūs varat uzticēties savam virtuves tosterim. Ja šķiet, ka tas droši pagatavo grauzdiņus un regulāri to dara, varat droši paļauties uz to, vai tosteris patiešām ir uzticams.

Šajā pašā domāšanas virzienā AI var būt arī mūsu uzticības viedokļa objekts. Izredzes ir tādas, ka uzticēšanās, kas saistīta ar AI, būs daudz sarežģītāka nekā ikdienišķs tosteris. Tosteris parasti var veikt tikai dažas darbības. AI sistēma, visticamāk, būs daudz sarežģītāka un, šķiet, darbojas mazāk pārredzami. Mūsu spēja novērtēt un pārliecināties par mākslīgā intelekta uzticamību noteikti būs daudz grūtāka un piedāvā atšķirīgas problēmas.

Tiek uzskatīts, ka tipiska AI sistēma ir ne tikai sarežģītāka, bet arī nedeterministiska un potenciāli pašregulējoša vai pašregulējoša. Mēs varam īsi izpētīt šo jēdzienu.

Deterministiska iekārta mēdz darīt tās pašas lietas atkal un atkal, paredzami un ar dzīvotspējīgu pamanāmu darbības modeli. Jūs varētu teikt, ka parastais tosteris grauzdē aptuveni tāpat un tam ir grauzdēšanas vadības ierīces, kas mērenu grauzdēšanu, un to visu parasti var paredzēt persona, kas izmanto tosteri. Turpretim sarežģītas AI sistēmas bieži tiek veidotas kā nedeterministiskas, kas nozīmē, ka tās var veikt pavisam citas darbības, kas pārsniedz to, ko jūs citādi varētu gaidīt. To daļēji varētu arī vēl vairāk pastiprināt, ja AI ir rakstīts, lai pats sevi pielāgotu. Tas ir aspekts, kas var izdevīgi ļaut AI uzlaboties ML/DL gadījumā, lai gan tas var arī traucējoši izraisīt AI satricinājumu vai iekļaušanos rindās. AI ļaunums. Savā ziņā jūs, iespējams, nezināt, kas jūs skāra, jo mākslīgā intelekta darbības jūs pilnībā pieķēra.

Ko mēs varētu darīt, lai AI tuvinātu uzticamībai?

Viena pieeja ir mēģinājums nodrošināt, ka tie, kas veido un izmanto AI, ievēro AI ētikas priekšrakstu kopumu. Kā minēja šie AI pētnieki: “Uzticēšanās ir attieksme, ka aģents izturēsies tā, kā paredzēts, un uz to var paļauties, lai sasniegtu savu mērķi. Uzticēšanās izjūk pēc kļūdas vai pārpratuma starp aģentu un uzticamo personu. Psiholoģiskā uzticēšanās mākslīgajam intelektam ir sarežģītas sistēmas īpašība, kas parasti ietver daudzus projektēšanas, apmācības, izvietošanas, veiktspējas mērīšanas, regulēšanas, pārprojektēšanas un pārkvalificēšanas ciklus” (norādīts ACM sakari, Stjuarts Midltons, Emanuels Letūzs, Ali Hosaini un Adriane Čepmena “Uzticēšanās, regulējums un cilvēka cilpas AI Eiropas reģionā”, 2022. gada aprīlis).

Būtība ir tāda, ka, ja mēs spēsim panākt, lai AI izstrādātāji ievērotu ētisko AI, viņi, cerams, galu galā radīs uzticamu AI. Tas viss ir labi un labi, taču tas šķiet nedaudz nepraktiski reālajā pasaulē, lai gan tas ir absolūti ceļš, uz kuru ir vērts iet.

Lūk, ko es domāju.

Pieņemsim, ka mākslīgā intelekta izstrādātāji ir rūpīgi strādājuši, veidojot AI sistēmu kādam mērķim, ko mēs parasti saucam par X. Viņi rūpīgi pārliecinās, ka AI ievēro AI ētikas pārskatāmības noteikumus. Viņi dedzīgi nodrošina, ka privātums ir atbilstoši iebūvēts AI. Gandrīz visiem parastajiem mākslīgā intelekta ētikas principiem mākslīgā intelekta veidotāji pilnībā nodrošina, ka AI atbilst noteiktajam priekšrakstam.

Vai jums tagad vajadzētu uzticēties šim AI?

Ļaujiet man palīdzēt izteikt jūsu domas par šo atvērto jautājumu.

Izrādās, ka kiberkrāpniekiem izdevās iefiltrēties mākslīgajā intelektā un slēpti panākt, lai AI veiktu X, bet vienlaikus arī padotu kiberhakeriem visus datus, ko AI vāc. Šādi rīkojoties, šie ļaundari mānīgi pārkāpj privātuma noteikumu. Jūs laimīgā kārtā nezināt, ka tas notiek zem mākslīgā intelekta pārsega.

Ņemot vērā šo pievienoto informāciju, es jums vēlreiz uzdošu to pašu jautājumu.

Vai jūs uzticaties šim AI?

Es uzdrošinos teikt, ka lielākā daļa cilvēku uzreiz paziņotu, ka viņi to noteikti dara nav uzticieties šim konkrētajam AI. Viņi varēja tam uzticēties agrāk. Tagad viņi izvēlas vairs neuzskatīt AI par uzticamu.

Ir vērts apsvērt dažas galvenās atziņas, kas balstītas uz šo vienkāršo piemēru:

  • Uzticības dinamika. Pat vislabākie nodomi aptvert visus pamatus, lai nodrošinātu, ka AI ētika ir iebūvēta AI sistēmā, negarantē, kāds AI varētu izrādīties vai kļūt. Kad mākslīgais intelekts ir nodots lietošanā, nepiederošie cilvēki var apdraudēt ētisko AI uzkrājumus.
  • Uzticības samazināšana no iekšpuses. Uzticamības samazināšanai nav obligāti jābūt nepiederošai personai. Iekšējās personas, kas regulāri veic AI sistēmas apkopi, var kļūdīties un vājināt AI, lai tā kļūtu mazāk uzticama. Šis AI izstrādātājs varētu nezināt, ko viņi ir pastrādājuši.
  • Netīši uzticības kompromisi. Pašregulējošs vai pašregulējošs AI kādā brīdī var pielāgoties un nonākt neuzticamā teritorijā. Iespējams, AI mēģina stiprināt AI caurspīdīgumu, taču vienlaikus un neatbilstoši apdraud privātuma aspektus.
  • Uzticības izkliedēšana. Mēģinājums sasniegt visus mākslīgā intelekta ētikas principus ar tādu pašu maksimālu uzticamības pakāpi parasti nav viegli dzīvotspējīgs, jo tie bieži vien ir savstarpēji saistīti vai tiem ir citi raksturīgi iespējami konflikti. Tā ir diezgan idealizēta perspektīva uzskatīt, ka visi ētiskie AI priekšraksti ir sapņaini saskaņoti un visi ir sasniedzami līdz vienādam maksimāli lielam līmenim.
  • Uzticības iegūšana var būt dārga. Izmaksas, lai mēģinātu sasniegt izcilu uzticama AI izskatu, veicot dažādas plašas un izsmeļošas darbības un ievērojot mākslīgā intelekta ētikas principu litānijas, būs salīdzinoši augstas. Jūs varat viegli iebilst, ka izmaksas būtu pārmērīgi augstas attiecībā uz dažu mākslīgā intelekta sistēmu izmantošanu, kurām citādi ir sabiedrībai svarīga vērtība, pat ja mākslīgais intelekts būtu mazāk nekā ideāls no uzticamības vēlmes.
  • Un tā tālāk.

Nepārprotiet iepriekšējās piezīmes, lai liktu, ka mums vajadzētu kaut kā novērst centienus rūpīgi izveidot un ieviest uzticamu AI. Jūs tā teikt, izmetīsit bērnu ar vannas ūdeni. Pareizā interpretācija ir tāda, ka mums ir jāveic šīs uzticamās darbības, lai AI kļūtu par uzticamu apsvērumu, taču tas vien nav līdzeklis pret visu vai sudraba lode.

Vairāki ceļi uz uzticamu AI

Ir svarīgi papildu daudzpusīgi veidi, kā tiekties uz uzticamu AI.

Piemēram, kā jau iepriekš rakstīju savās slejās, neskaitāmi jauni likumi un noteikumi, kas attiecas uz AI, cenšas mudināt AI veidotājus izstrādāt uzticamu AI, sk. saite šeit un saite šeit.

Šīs likumīgās aizsargmargas ir ļoti svarīgas kā visaptverošs līdzeklis, lai nodrošinātu, ka AI izstrādātāji ir pilnībā atbildīgi par savu AI. Bez šādiem potenciāliem juridiskiem līdzekļiem un likumīgiem sodiem tie, kas AI steidzas ienākt tirgū, visticamāk, turpinās to darīt, nemaz nedomājot par uzticama AI iegūšanu. Es varētu īpaši piebilst, ka, ja šie likumi un noteikumi ir slikti izstrādāti vai neatbilstoši īstenoti, tie diemžēl var mazināt tiekšanos pēc uzticama AI, iespējams, ironiskā un dīvainā kārtā veicināt neuzticamu AI pār uzticamu AI (sīkāku skaidrojumu skatiet manā slejā.

Esmu bijis arī stingrs to, ko es dedzīgi esmu pieminējis AI sargeņģeļu roboti (skatiet manu pārklājumu vietnē saite šeit). Šī ir gaidāmā metode vai pieeja, lai mēģinātu cīnīties ar uguni ar uguni, proti, AI izmantošana, lai palīdzētu mums tikt galā ar citiem mākslīgā intelekta gadījumiem, kas varētu būt vai nav uzticami.

Pirmkārt, noderēs kāds fona konteksts.

Pieņemsim, ka izvēlaties paļauties uz AI sistēmu, kuras uzticamību neesat pārliecināts. Galvenās bažas varētu radīt tas, ka jūs esat viens, cenšoties noskaidrot, vai AI ir jāuzticas vai nē. AI, iespējams, ir skaitļošanas ziņā ātrāks nekā jūs un var izmantot jūs. Jums ir nepieciešams kāds vai kaut kas jūsu pusē, lai palīdzētu.

Viena no perspektīvām ir tāda, ka vienmēr ir jābūt cilpā esošam cilvēkam, kas jums palīdzēs, kad izmantojat AI sistēmu. Tomēr tas ir problemātisks risinājums. Ja mākslīgais intelekts darbojas reāllaikā, ko mēs īsi apspriedīsim, kad runa ir par AI balstītu pašbraucošu automašīnu parādīšanos, ar cilvēka cilpu var nepietikt. AI varētu darboties reāllaikā, un brīdī, kad izraudzītais cilvēks cilpā nonāk attēlā, lai noskaidrotu, vai AI darbojas pareizi, iespējams, jau ir noticis katastrofāls rezultāts.

Starp citu, tas atklāj vēl vienu uzticības faktoru. Mēs parasti piešķiram uzticības līmeni, pamatojoties uz kontekstu vai apstākļiem, ar kuriem saskaramies. Jūs varētu pilnībā paļauties uz to, ka jūsu mazulis dēls vai meita būs jums uzticīgi, taču, ja dodaties pārgājienā un nolemjat paļauties uz to, ka mazulis jums pateiks, vai ir droši uzkāpt uz klints malas, es domāju, ka jūs būtu gudrs. apsvērt, vai mazulis var sniegt šāda veida padomu par dzīvību vai nāvi. Bērns to var darīt nopietni un sirsnīgi, bet tomēr nevarēs pienācīgi sniegt šādu padomu.

Tas pats jēdziens ir saistīts ar uzticību, kad runa ir par AI. AI sistēma, kuru izmantojat, lai spēlētu dambreti vai šahu, iespējams, nav iesaistīta apspriedēs par dzīvību vai nāvi. Jūs varat būt vieglāk ar uzticības uzdevumu. Uz AI balstītai pašbraucošai automašīnai, kas lielā ātrumā traucas pa šoseju, ir nepieciešama daudz stingrāka uzticēšanās. Mazākā mākslīgā intelekta vadības sistēmas kļūda var izraisīt jūsu un citu cilvēku nāvi.

Publicētā intervijā ar Bēnu Amanātu, Globālā Deloitte AI institūta izpilddirektori un grāmatas autoru Uzticams AI, līdzīgs uzsvars, ņemot vērā kontekstuālos aspektus saistībā ar AI uzticamību: “Ja veidojat AI risinājumu, kas veic pacienta diagnostiku, godīgums un neobjektivitāte ir ļoti svarīgi. Bet, ja jūs veidojat algoritmu, kas paredz reaktīvo dzinēju atteici, godīgums un neobjektivitāte nav tik svarīgi. Uzticams AI patiešām ir struktūra, kas liek jums sākt domāt par uzticības dimensijām jūsu organizācijā.VentureBeat, 22. gada 2022. marts).

Apspriežot uzticamu AI, šo tēmu varat interpretēt dažādos veidos.

Piemēram, uzticams AI ir kaut kas tāds, ko mēs visi uzskatām par vēlamu un mērķtiecīgu mērķi, proti, mums vajadzētu vēlēties izstrādāt un izplatīt uzticamu AI. Ir arī cits īsfrāzes lietojums. Nedaudz alternatīvs lietojums ir tas uzticams AI ir stāvokļa vai mērījuma stāvoklis, kurā kāds var apgalvot, ka ir izveidojis AI sistēmu, kas ir uzticama AI piemērs. Varat arī izmantot frāzi uzticams AI ieteikt metodi vai pieeju, ko var izmantot, lai sasniegtu AI uzticamību. utt.

Saistībā ar to es ticu, ka jūs saprotat, ka ne visi AI ir vienādi un ka mums ir jāuzmanās, lai neizteiktu vispārējus apgalvojumus par visu AI. Konkrēta AI sistēma, visticamāk, ievērojami atšķiras no citas AI sistēmas. Viena no šīm AI sistēmām varētu būt ļoti uzticama, bet otra var būt maz uzticama. Esiet piesardzīgs, kaut kādā veidā pieņemot, ka AI ir monolīts, kas ir vai nu pilnīgi uzticams, vai pilnīgi neuzticams.

Tas tā vienkārši nav.

Tālāk es vēlos īsi aplūkot dažus no saviem pašreizējiem pētījumiem par uzticamu mākslīgo intelektu, kas jūs varētu interesēt, aptverot pieaugošo lomu AI sargeņģeļu roboti.

Lūk, kā tas notiek.

Jūs būtu bruņots ar AI sistēmu (AI sargeņģeļa robotu), kas ir izstrādāta, lai novērtētu kādas citas AI sistēmas uzticamību. AI sargeņģeļa robotam galvenais ir jūsu drošība. Padomājiet par to tā, it kā jums būtu līdzekļi, lai pārraudzītu AI, uz kuru paļaujaties, izmantojot citu AI sistēmu jūsu īstajā kabatā, kas, iespējams, darbojas jūsu viedtālrunī vai citās līdzīgās ierīcēs. Jūsu sakāmvārdā AI aizbildnis var aprēķināt, pamatojoties uz to, ka AI, uz kuru paļaujaties, arī dara, strādājot lielā ātrumā un aprēķinot konkrēto situāciju reāllaikā, daudz ātrāk, nekā to varētu izdarīt cilpas cilvēks.

No pirmā acu uzmetiena jūs varētu domāt, ka mākslīgajam intelektam, uz kuru jūs jau paļaujaties, vajadzētu būt dažiem iekšējs AI aizsargmargas, kas darbojas tāpat kā šis atsevišķi aprēķina AI sargeņģeļa robots. Jā, tas noteikti būtu vēlams. Viens no iebildumiem ir tāds, ka AI sistēmā iebūvētās AI aizsargmargas var būt integrēti un nelabvēlīgi saskaņotas ar AI per se, tādējādi iespējamā AI aizsargmarga savā ziņā vairs nespēj neatkarīgi pārbaudīt vai apstiprināt AI.

Pretstatā ideja ir tāda, ka jūsu AI sargeņģeļa robots ir neatkarīgs vai trešās puses AI mehānisms, kas atšķiras no AI, uz kuru jūs paļaujaties. Tas atrodas ārpus cita AI, paliekot veltīts jums un nav veltīts AI, kas tiek uzraudzīts vai novērtēts.

Vienkāršu veidu, kā par to domāt, var izteikt, izmantojot šādus vienkāršotus vienādojumam līdzīgus apgalvojumus. Mēs varētu teikt, ka “P” vēlas potenciāli uzticēties “R”, lai veiktu konkrētu uzdevumu “X”:

Tas būtu šāds, ja ir iesaistīti tikai cilvēki:

  • Persona P uzticas personai R veikt uzdevumu X.

Kad mēs izvēlamies paļauties uz AI, paziņojums tiek pārveidots par šādu:

  • Persona P uzticas AI instance-R, lai veiktu uzdevumu X.

Mēs varam pievienot AI sargeņģeļa robotu, sakot:

  • Persona P uzticas AI instance-R, lai veiktu uzdevumu X, jo to uzrauga AI sargeņģeļa robota instance-Z

AI sargeņģeļa robots nenogurstoši un nerimstoši novērtē AI, uz kuru jūs paļaujaties. Tādējādi jūsu parocīgais AI aizbildnis var jūs brīdināt, ka šī cita AI uzticēšanās ir nepamatota. Vai arī AI aizbildnis var elektroniski sadarboties ar otru AI, lai mēģinātu nodrošināt, ka jebkura novirze no uzticamības tiek ātri novērsta un tā tālāk (skatiet manu informāciju par šādu informāciju vietnē saite šeit).

Trusty Trust Reservoir metafora

Tā kā mēs apspriežam dažādus uzticības līmeņus, jūs varētu atrast noderīgu metaforu par uzticamību, uzskatot uzticību kā rezervuāra veidu.

Jums ir zināma uzticēšanās noteiktai personai vai lietai konkrētos apstākļos noteiktā laika brīdī. Uzticības līmenis pieaugs vai kritīsies atkarībā no tā, kas vēl notiek saistībā ar konkrēto personu vai lietu. Uzticēšanās var būt nulles līmenī, ja jums nav nekādas uzticības personai vai lietai. Uzticēšanās var būt negatīva, ja jūs uzdrošināties neuzticēties šai personai vai lietai.

AI sistēmu gadījumā jūsu uzticamības rezervuārs konkrētajam AI, uz kuru paļaujaties konkrētos apstākļos, pieaugs vai samazināsies atkarībā no tā, vai novērtēsiet AI uzticamību. Dažkārt jūs varētu labi apzināties šo atšķirīgo uzticības līmeni attiecībā uz AI, savukārt citos gadījumos jūs varētu būt mazāk informēts un vairāk nojaušat, izdarot spriedumus par uzticamību.

Šeit ir apspriesti veidi, kā palielināt AI uzticības līmeni:

  • AI ētikas ievērošana. Ja mākslīgais intelekts, uz kuru paļaujaties, tika izveidots, mēģinot ievērot pareizos AI ētikas priekšrakstus, jūs, iespējams, izmantotu šo izpratni, lai paaugstinātu uzticības līmeni konkrētajai AI sistēmai. Kā sānu piezīmi, ir arī iespējams, ka jūs varētu vispārināt arī citas AI sistēmas attiecībā uz to uzticamību, lai gan tas dažkārt var būt maldinošs veids, ko es saucu. AI uzticības aura izplatās (Esiet piesardzīgs, to darot!).
  • Izmantojiet cilvēku cilpā. Ja AI ir cilpas cilvēks, jūs varētu pozitīvi palielināt savu uzticību AI.
  • Izstrādāt likumus un noteikumus. Ja ir likumi un noteikumi, kas saistīti ar šo konkrēto AI veidu, jūs varat arī palielināt savu uzticības līmeni.
  • Nodarbiniet mākslīgā intelekta sargeņģeļa robotu. Ja jums ir gatavs AI sargeņģeļa robots, arī tas vēl vairāk paaugstinās jūsu uzticības līmeni.

Kā minēts iepriekš, uzticēšanās var būt diezgan trausla un sabrukt vienā mirklī (ti, uzticības rezervuārs ātri un pēkšņi izmet visu izveidoto uzticību).

Iedomājieties, ka atrodaties pašbraucošā automašīnā, kuras pamatā ir mākslīgais intelekts, un AI pēkšņi veic radikālu labo pagriezienu, izraisot riteņu čīkstēšanu un gandrīz piespiežot autonomo transportlīdzekli apdraudētajā apgāšanās stāvoklī. Kas notiktu ar jūsu uzticības līmeni? Šķiet, ka pat tad, ja jūs iepriekš paaugstinājāt AI uzticības līmeni, jūs dramatiski un pēkšņi pazeminātu uzticības līmeni, tas ir saprātīgi.

Šajā svarīgās diskusijas posmā es varu derēt, ka jūs vēlaties papildu ilustratīvus piemērus, kas varētu parādīt uzticama AI būtību un darbības jomu. Ir īpašs un noteikti populārs piemēru kopums, kas man ir tuvs. Redziet, manā kā MI ekspertam, tostarp ētiskajām un juridiskajām sekām, man bieži tiek lūgts identificēt reālistiskus piemērus, kas parāda AI ētikas dilemmas, lai varētu vieglāk uztvert tēmas nedaudz teorētisko raksturu. Viena no visspilgtākajām jomām, kas spilgti atspoguļo šo ētisko AI problēmu, ir uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās. Tas kalpos kā ērts lietošanas gadījums vai paraugs plašai diskusijai par šo tēmu.

Šeit ir viens ievērības cienīgs jautājums, par kuru ir vērts padomāt: Vai uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās kaut ko izgaismo par tiekšanos pēc uzticama AI, un, ja tā, tad ko tas parāda?

Ļaujiet man kādu brīdi izpakot jautājumu.

Pirmkārt, ņemiet vērā, ka īstā pašbraucošā automašīnā nav cilvēka vadītāja. Ņemiet vērā, ka patiesas pašbraucošas automašīnas tiek vadītas, izmantojot AI braukšanas sistēmu. Nav nepieciešams cilvēks pie stūres, kā arī nav paredzēts, ka cilvēks varētu vadīt transportlīdzekli. Manu plašo un pastāvīgo informāciju par autonomajiem transportlīdzekļiem (AV) un īpaši pašbraucošām automašīnām sk. saite šeit.

Es vēlētos vēl vairāk precizēt, kas ir domāts, runājot par patiesām pašbraucošām automašīnām.

Izpratne par pašbraucošo automašīnu līmeņiem

Paskaidrosim, ka patiesas pašbraucošas automašīnas ir tās, kurās mākslīgais intelekts vada automašīnu pilnībā un braukšanas uzdevuma laikā netiek sniegta cilvēka palīdzība.

Šie bezvadītāja transportlīdzekļi tiek uzskatīti par 4. un 5. līmeni (skatiet manu skaidrojumu vietnē šī saite šeit), savukārt automašīna, kuras vadītājam ir jādalās braukšanas piepūlē, parasti tiek uzskatīta par 2. vai 3. līmeni. Automašīnas, kas kopīgi veic vadīšanas uzdevumu, ir aprakstītas kā daļēji autonomas, un parasti tajās ir dažādas automatizēti papildinājumi, kas tiek saukti par ADAS (Advanced Driver-Assistance Systems).

Pagaidām vēl nav īstas pašbraucošas automašīnas 5. līmenī, un mēs vēl pat nezinām, vai to būs iespējams sasniegt, kā arī to, cik ilgs laiks būs nepieciešams, lai līdz tam nokļūtu.

Tikmēr 4. līmeņa centieni pakāpeniski mēģina iegūt zināmu saķeri, veicot ļoti šauru un selektīvu koplietošanas ceļu izmēģinājumus, lai gan pastāv strīdi par to, vai šī pārbaude ir jāatļauj per se (mēs visi esam dzīvības vai nāves jūrascūciņas eksperimentā kas notiek uz mūsu lielceļiem un blakusceļiem, daži apgalvo, skatiet manu pārklājumu vietnē šī saite šeit).

Tā kā pusautomātiskajām automašīnām ir nepieciešams autovadītājs, kas izmanto cilvēku, šāda veida automašīnas pieņemšana ievērojami neatšķirsies no parastā transporta līdzekļa vadīšanas, tāpēc per se nav daudz jaunu, lai par tām runātu par šo tēmu (lai gan, kā redzēsit pēc brīža nākamie punkti parasti ir piemērojami).

Pusautonomām automašīnām ir svarīgi, lai sabiedrība tiktu brīdināta par satraucošu aspektu, kas rodas pēdējā laikā, proti, ka, neskatoties uz tiem autovadītājiem, kas turpina publicēt video, kā viņi aizmiguši pie 2. vai 3. līmeņa automašīnas stūres , mums visiem jāizvairās no maldināšanas, uzskatot, ka vadītājs, vadot daļēji autonomu automašīnu, var novērst uzmanību no braukšanas uzdevuma.

Jūs esat atbildīgā persona par transportlīdzekļa vadīšanas darbībām neatkarīgi no tā, cik daudz automatizācijas var iemest 2. vai 3. līmenī.

Pašbraucošas automašīnas un uzticams mākslīgais intelekts

4. un 5. līmeņa īstiem pašpiedziņas transportlīdzekļiem braukšanas uzdevumā nebūs iesaistīts autovadītājs.

Visi pasažieri būs pasažieri.

AI veic braukšanu.

Viens aspekts, kas nekavējoties jāapspriež, ietver faktu, ka AI, kas iesaistīts mūsdienu AI braukšanas sistēmās, nav jūtīgs. Citiem vārdiem sakot, AI kopumā ir datorizētas programmēšanas un algoritmu kolektīvs, un, protams, tas nespēj spriest tāpat kā cilvēki.

Kāpēc šis papildu uzsvars tiek likts uz to, ka AI nav jūtīgs?

Tā kā es gribu pasvītrot, ka, apspriežot AI braukšanas sistēmas lomu, es nepiešķiru AI cilvēka īpašības. Lūdzu, ņemiet vērā, ka mūsdienās pastāv un ir bīstama tendence antropomorfizēt AI. Būtībā cilvēki piešķir mūsdienu cilvēka intelektu mūsdienu AI, neskatoties uz nenoliedzamu un neapstrīdamu faktu, ka šāda AI vēl nav.

Izmantojot šo precizējumu, jūs varat iedomāties, ka AI braukšanas sistēma dabiski kaut kā “nezinās” par braukšanas aspektiem. Braukšana un viss, kas ar to saistīts, būs jāprogrammē kā daļa no pašpiedziņas automašīnas aparatūras un programmatūras.

Iegremdēsimies neskaitāmos aspektos, kas nāk par šo tēmu.

Pirmkārt, ir svarīgi saprast, ka ne visas AI pašbraucošās automašīnas ir vienādas. Katrs autoražotājs un pašpiedziņas tehnoloģiju uzņēmums izmanto savu pieeju, lai izstrādātu pašbraucošas automašīnas. Tādējādi ir grūti sniegt visaptverošus paziņojumus par to, ko AI vadīšanas sistēmas darīs vai nedarīs.

Turklāt ikreiz, kad tiek apgalvots, ka AI vadīšanas sistēma nedara kādu konkrētu lietu, to vēlāk var apsteigt izstrādātāji, kuri faktiski programmē datoru, lai to izdarītu. Soli pa solim AI braukšanas sistēmas tiek pakāpeniski uzlabotas un paplašinātas. Esošais ierobežojums šodien, iespējams, vairs nepastāvēs turpmākajā sistēmas iterācijā vai versijā.

Es ticu, ka tas sniedz pietiekamu iebildumu litāniju, lai pamatotu to, ko es drīzumā stāstu.

Šobrīd esam gatavi dziļi izpētīt pašbraucošās automašīnas un uzticamu AI.

Uzticība ir viss, jo īpaši attiecībā uz AI balstītām pašbraucošām automašīnām.

Šķiet, ka sabiedrība piesardzīgi raugās uz pašbraucošu automašīnu parādīšanos. No vienas puses, ir liela cerība, ka patiesu pašbraucošu automašīnu parādīšanās acīmredzami samazinās ar automašīnām saistīto nāves gadījumu skaitu gadā. Amerikas Savienotajās Valstīs vien katru gadu autoavārijās mirst aptuveni 40,000 2.5 cilvēku un ievaino aptuveni XNUMX miljonus. Skatiet manu statistikas apkopojumu vietnē saite šeit. Cilvēki dzer un brauc. Cilvēki brauc, kamēr ir apjucis. Šķiet, ka automašīnas vadīšanas uzdevums sastāv no spējas atkārtoti un nekļūdīgi koncentrēties uz braukšanu un izvairīties no autoavārijas. Tādējādi mēs varētu sapņaini cerēt, ka AI braukšanas sistēmas atkārtoti un nekļūdīgi vadīs pašbraucošās automašīnas. Jūs varat uztvert pašpiedziņas automašīnas kā divkāršu, kas ietver nāves gadījumu un ievainojumu skaita samazināšanu autoavārijās, kā arī potenciāli padarot mobilitāti pieejamu daudz plašākā un pieejamākā veidā.

Bet tikmēr bažas rada sabiedrības priekšstati par to, vai pašpiedziņas automašīnas būs pietiekami drošas, lai tās varētu atrasties uz mūsu koplietošanas ceļiem.

Ja kaut viena pašbraucoša automašīna nonāk avārijā vai sadursmē, kas izraisa vienu nāves gadījumu vai smagus ievainojumus, jūs, iespējams, paredzat, ka šobrīd zināmā mērā uzkrātā uzticība šīm bezvadītāja automašīnām, kuru pamatā ir mākslīgais intelekts, strauji samazināsies. Mēs to redzējām, kad tagad bēdīgi slavenais incidents notika Arizonā, kurā bija iesaistīta nedaudz (ne īsti) pašbraucoša automašīna, kas uzbrauca un nogalināja gājēju (skatiet manus ziņojumus šī saite šeit).

Daži eksperti norāda, ka ir negodīgi un nepiemēroti AI pašpiedziņas automašīnu uzticību balstīt uz to, ka tikai viena šāda nākamā nāves izraisītā avārija vai sadursme varētu iedragāt jau tā salīdzinoši bezavāriju koplietošanas ceļu izmēģinājumus. Turklāt, balstoties uz vēl vienu negodīgu pamatojumu, pastāv iespēja, ka neatkarīgi no tā, kura AI pašbraucošo automašīnu marka vai modelis iejaucas bēdīgā incidentā, sabiedrība neapšaubāmi vainotu visas pašbraucošo automašīnu markas.

Visas pašpiedziņas automašīnas varētu tikt nosmērētas, un nozare kopumā varētu ciest no milzīgas pretreakcijām, kas varētu izraisīt visu koplietošanas ceļu izmēģinājumu pārtraukšanu.

Šāda trieciena veicinātājs ir atklātu pašbraucošu automašīnu atbalstītāju bezjēdzīgajiem paziņojumiem, ka visas bezvadītāja automašīnas būs nesalaužamas. Šī ideja par nesalaužamību ir ne tikai klaji nepareiza (sk saite šeit), tā mānīgi veido pašpiedziņas automobiļu nozari, lai izpildītu pilnīgi neatbilstošas ​​cerības. Šie dīvainie un nesasniedzamie paziņojumi, ka pašbraucošo automašīnu dēļ nāves gadījumu nebūs nulle, veicina maldīgu priekšstatu, ka jebkura bezvadītāja autoavārija ir droša zīme, ka viss komplekts un kaboodle ir par velti.

Ir nepārprotamas skumjas, apzinoties, ka virzība uz pašpiedziņas automobiļiem un sabiedrības uzticības uzkrāšanās vienā mirklī var tikt novērsta. Tas būs lielisks pierādījums par uzticības trauslumu.

Secinājumi

Daudzi autoražotāji un pašpiedziņas tehnoloģiju uzņēmumi parasti ievēro mākslīgā intelekta ētikas principus, lai mēģinātu izveidot un radīt uzticamu AI drošu un uzticamu pašbraucošu automašīnu ziņā. Lūdzu, ņemiet vērā, ka daži no šiem uzņēmumiem ir spēcīgāki un vairāk veltīti ētiskajam AI priekšrakstiem nekā citi. Reizēm ir arī jauni vai iesācēji, kas ir saistīti ar pašbraucošām automašīnām, kas, šķiet, atmet lielu daļu AI ētikas stūrakmeņu (skatiet manu pārskatu vietnē saite šeit).

Citās jomās jauni likumi un noteikumi, kas attiecas uz pašpiedziņas automašīnām, pakāpeniski tiek iekļauti juridiskajā grāmatā. Tas, vai viņiem ir nepieciešamie zobi, lai tos atbalstītu, ir cits jautājums, kā arī tas, vai šo likumu izpilde tiek uztverta nopietni vai tiek ignorēta (analīzes par to skatiet manās slejās).

Tam ir arī augsto tehnoloģiju leņķis. Esmu paredzējis, ka pamazām redzēsim AI sargeņģeļu robotu variantus, kas izvirzīsies priekšplānā autonomo transportlīdzekļu un pašbraucošo automašīnu arēnā. Mēs vēl neesam tur. Tas kļūs arvien izplatītāks, tiklīdz pašbraucošo automašīnu popularitāte kļūs plašāka.

Šis pēdējais punkts atklāj slavenu rindu par uzticēšanos, kuru jūs, bez šaubām, jau zināt no galvas.

Uzticieties, bet pārbaudiet.

Mēs varam ļaut sev paplašināt savu uzticību, iespējams, dāsni. Tikmēr mums ir jāraugās kā vanagim, lai pārliecinātos, ka mūsu radītā uzticība tiek apstiprināta gan ar vārdiem, gan ar darbiem. Uzticēsimies AI, taču bezgalīgi pārbaudīsim, vai mēs uzticamies atbilstoši un ar plaši atvērtām acīm.

Jūs varat man tajā uzticēties.

Avots: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/