AI ētika apgalvo, ka mākslīgais intelekts ir īpaši jāizmanto, ja ir daudz cilvēku aizspriedumu

Cilvēkiem ir jāzina savi ierobežojumi.

Jūs varētu atcerēties līdzīgo slaveno rindu par mūsu ierobežojumu apzināšanu, ko smalki izteica tēls Netīrais Harijs 1973. gada filmā ar nosaukumu Magnum Force (saskaņā ar aktiera Klinta Īstvuda teikto viņa neaizmirstamajā inspektora Harija Kalahana lomā). Vispārējais priekšstats ir tāds, ka dažreiz mēs mēdzam neievērot savas robežas un attiecīgi nonākt karstā ūdenī. Neatkarīgi no tā, vai mēs esam augstprātīgi, esam egocentriski vai vienkārši esam akli pret savām spējām, priekšraksts apzināties un skaidri ņemt vērā savas tieksmes un trūkumus ir ļoti saprātīgs un noderīgs.

Pievienosim gudrajam padomam jaunu pavērsienu.

Mākslīgais intelekts (AI) ir iepazinies ar saviem ierobežojumiem.

Ko es domāju ar šo cienītās frāzes variantu?

Izrādās, ka sākotnējā steiga, lai mūsdienu AI tiktu izmantota kā cerīgs pasaules problēmu risinātājs, ir kļuvusi aptraipīta un pilnībā apgrūtināta, apzinoties, ka mūsdienu mākslīgajam intelektam ir daži diezgan nopietni ierobežojumi. Mēs aizgājām no pacilājošajiem virsrakstiem AI uz labu un arvien vairāk esam nonākuši tajos AI For Bad. Redziet, daudzas mākslīgā intelekta sistēmas ir izstrādātas un izmantotas ar visdažādākajiem rasu un dzimuma aizspriedumiem un neskaitāmām citām šausmīgām nevienlīdzībām.

Manu plašo un pastāvīgo informāciju par AI ētiku un ētisko AI skatiet saite šeit un saite šeit, tikai nosaukt dažus.

Šajās AI sistēmās atklātās novirzes nav tādas, lai mēs teiktu, “tīšas”, ko mēs attiecinātu uz cilvēka uzvedību. Es to pieminu, lai uzsvērtu, ka mūsdienu mākslīgais intelekts nav jūtīgs. Neraugoties uz tiem kliedzošajiem virsrakstiem, kas liecina par pretējo, nekur nav AI, kas būtu pat tuvu jūtamam. Turklāt mēs nezinām, kā AI iekļaut jutības diapazonā, turklāt neviens nevar droši pateikt, vai mēs kādreiz sasniegsim AI jutību. Varbūt tas kādreiz notiks, vai varbūt nē.

Tāpēc es domāju, ka mēs nevaram īpaši piešķirt nodomu tādam AI veidam, kāds mums pašlaik ir. To sakot, mēs varam bagātīgi piešķirt nodomu tiem, kas izstrādā AI sistēmas. Daži AI izstrādātāji nezina, ka viņi ir izstrādājuši AI sistēmu, kas satur nepatīkamus un, iespējams, nelikumīgus aizspriedumus. Tikmēr citi AI izstrādātāji saprot, ka viņi savās AI sistēmās ievieš aizspriedumus, iespējams, rīkojoties mērķtiecīgi nepareizi.

Jebkurā gadījumā iznākums joprojām ir nepiedienīgs un, iespējams, nelikumīgs.

Tiek veikti nopietni centieni, lai izplatītu AI ētikas principus, kas informēs AI izstrādātājus un sniegs piemērotus norādījumus, lai izvairītos no aizspriedumu iegulšanas viņu AI sistēmās. Tas palīdzēs divējādi. Pirmkārt, tiem, kas izstrādā AI, vairs nebūs gatavu attaisnojumu, ka viņi vienkārši nezināja, kādi priekšraksti būtu jāievēro. Otrkārt, tie, kas novirzās no ētiskā AI nosacījumiem, tiks vieglāk uztverti un parādīti kā tādi, kas novērš to, ko viņi bija brīdināti gan darīt, gan nedarīt.

Atvēlēsim brīdi, lai īsi apsvērtu dažus galvenos ētiskā AI priekšrakstus, lai ilustrētu, par ko AI veidotājiem būtu jādomā un stingri jāievēro AI ētikas nostāja.

Kā paziņojis Vatikāns Roma aicinājums uz AI ētiku un kā esmu padziļināti aprakstījis plkst saite šeit, šie ir viņu identificētie seši galvenie AI ētikas principi:

  • Pārredzamība: Principā AI sistēmām ir jābūt izskaidrojamām
  • Iekļaušana: Ir jāņem vērā visu cilvēku vajadzības, lai ikviens varētu gūt labumu un visiem indivīdiem varētu piedāvāt vislabākos iespējamos apstākļus, lai izpaustos un attīstītos.
  • Atbildība: Tiem, kas izstrādā un ievieš AI izmantošanu, ir jārīkojas atbildīgi un pārredzami
  • objektivitāte: Neveidojiet un nerīkojieties saskaņā ar aizspriedumiem, tādējādi aizsargājot godīgumu un cilvēka cieņu
  • Uzticamība: AI sistēmām jāspēj darboties uzticami
  • Drošība un privātums: AI sistēmām ir jādarbojas droši un jāievēro lietotāju privātums.

Kā norādīja ASV Aizsardzības departaments (DoD) savā Mākslīgā intelekta izmantošanas ētikas principi un kā esmu padziļināti aprakstījis plkst saite šeit, šie ir viņu seši galvenie AI ētikas principi:

  • Atbildīgais: DoD darbinieki veiks atbilstošu spriedumu un rūpību, vienlaikus paliekot atbildīgi par AI iespēju izstrādi, izvietošanu un izmantošanu.
  • Taisnīgs: Departaments veiks apzinātus pasākumus, lai samazinātu neparedzētu AI iespēju novirzi.
  • Izsekojams: Departamenta mākslīgā intelekta iespējas tiks izstrādātas un izvietotas tā, lai attiecīgajam personālam būtu atbilstoša izpratne par tehnoloģijām, izstrādes procesiem un darbības metodēm, kas piemērojamas AI spējām, tostarp izmantojot pārredzamas un auditējamas metodoloģijas, datu avotus un projektēšanas procedūru un dokumentāciju.
  • Reliable: Departamenta mākslīgā intelekta iespējām būs skaidri, precīzi definēti lietojumi, un šādu iespēju drošība, drošība un efektivitāte tiks pārbaudīta un garantēta noteiktajos lietojumos visā to dzīves ciklā.
  • Pārvaldāms: Departaments izstrādās un izstrādās mākslīgā intelekta iespējas, lai tās varētu izpildīt paredzētās funkcijas, vienlaikus spējot atklāt un izvairīties no neparedzētām sekām, kā arī atslēgt vai deaktivizēt izvietotās sistēmas, kas demonstrē neparedzētu uzvedību.

Esmu arī apspriedis dažādas AI ētikas principu kolektīvās analīzes, tostarp aptvēru pētnieku izstrādāto kopumu, kurā tika pārbaudīta un apkopota daudzu nacionālo un starptautisko AI ētikas principu būtība rakstā “The Global Landscape Of AI Ethics Guidelines” (publicēts). iekšā daba), un ka mans pārklājums pēta plkst saite šeit, kas noveda pie šī stūrakmens saraksta:

  • Caurspīdīgums
  • Taisnīgums un godīgums
  • Ne-ļaunprātība
  • atbildība
  • Privātums
  • Labums
  • Brīvība un autonomija
  • Uzticēties
  • Ilgtspējība
  • cieņa
  • Solidaritāte

Kā jūs varētu tieši nojaust, mēģinājums noteikt šo principu pamatā esošo specifiku var būt ārkārtīgi grūti. Vēl jo vairāk, centieni pārvērst šos plašos principus par kaut ko pilnīgi taustāmu un pietiekami detalizētu, lai tos izmantotu AI sistēmu izstrādē, arī ir grūts rieksts. Kopumā ir viegli pamātīt ar roku par to, kas ir AI ētikas priekšraksti un kā tie vispār būtu jāievēro, savukārt situācija ir daudz sarežģītāka, ja AI kodēšanai ir jābūt īstai gumijai, kas saskaras ar ceļu.

AI ētikas principi ir jāizmanto AI izstrādātājiem, kā arī tiem, kas pārvalda AI izstrādes centienus, un pat tiem, kas galu galā veic AI sistēmu uzturēšanu un uzturēšanu. Visas ieinteresētās puses visā AI izstrādes un lietošanas dzīves ciklā tiek uzskatītas par ētiskā AI noteikto normu ievērošanu. Tas ir svarīgs akcents, jo parasti tiek pieņemts, ka “tikai kodētāji” vai tie, kas programmē AI, ir pakļauti AI ētikas jēdzieniem. Lūdzu, ņemiet vērā, ka AI izveidei un izmantošanai ir nepieciešams ciemats. Par ko visam ciematam ir jāturas pie pirkstiem par AI ētiku.

Tomēr tagad, kad esmu nonācis pie tabulas, ka AI var saturēt aizspriedumus, mēs, iespējams, varam piekrist šiem diviem acīmredzamajiem faktiem:

1. Cilvēkiem var būt daudz nevēlamu aizspriedumu un viņi var rīkoties saskaņā ar tiem

2. AI var būt daudz nevēlamu aizspriedumu, un tas var rīkoties, pamatojoties uz šiem aizspriedumiem

Šajā kontekstā man ir riebums cilvēku un mākslīgā intelekta salīdzināšanai, jo tas varētu nozīmēt, ka mākslīgā intelekta spējas ir līdzvērtīgas cilvēkiem. Tas noteikti tā nav. Nedaudz vēlāk šajā diskusijā es atgriezīšos pie pieaugošajām bažām par mākslīgā intelekta antropomorfizāciju.

Kas ir sliktāk: cilvēki, kas izrāda nevēlamus aizspriedumus, vai AI, kas to dara?

Es uzdrošinos teikt, ka jautājums rada vienu no šīm nežēlīgajām izvēlēm. Varētu apgalvot, ka tas ir sakāmvārds, mazākais no diviem ļaunumiem. Mēs vēlētos, lai cilvēki neiemiesotu nevēlamus aizspriedumus. Mēs arī vēlamies, lai pat tad, ja cilvēkiem ir nevēlami aizspriedumi, viņi nerīkotos pēc šiem aizspriedumiem. To pašu varētu trāpīgi teikt par AI. Mēs vēlamies, lai mākslīgais intelekts neiegultu nevēlamas novirzes un lai pat tad, ja pastāv tādi iekšēji kodēti aizspriedumi, AI vismaz nerīkotos uz tiem.

Vēlmes gan ne vienmēr vada pasauli (manai analīzei par pieaugošo un satraucošo t.s. AI vēlmju piepildījums sabiedrībā kopumā, sk saite šeit).

Labi, mēs acīmredzami vēlamies, lai cilvēki zinātu savus ierobežojumus. Ir svarīgi atpazīt, kad jums ir nevēlami aizspriedumi. Vienlīdz svarīgi ir mēģināt novērst šo nevēlamo aizspriedumu ieplūšanu jūsu darbībās un lēmumos. Uzņēmumi šodien izmēģina visu veidu pieejas, lai neļautu saviem darbiniekiem iekrist nevēlamās aizspriedumos, kas ir briesmīgi. Darbiniekiem tiek veiktas specializētas apmācības par to, kā veikt savu darbu ētiski pamatotā veidā. Procesi tiek veidoti ap darbiniekiem, lai brīdinātu viņus, kad šķiet, ka viņi demonstrē neētiskus paradumus. Un tā tālāk.

Vēl viens veids, kā tikt galā ar cilvēkiem un viņu nevēlamajiem aizspriedumiem, būtu automatizēt uz cilvēku balstītu darbu. Jā, vienkārši noņemiet cilvēku no cilpas. Neļaujiet cilvēkam veikt lēmumu pieņemšanas uzdevumu, un jums, iespējams, vairs nav nekādu bažu par cilvēka attieksmi pret jebkādiem nevēlamiem aizspriedumiem. Tajā nav iesaistīts cilvēks, un tādējādi šķiet, ka ir atrisināta iespējamā cilvēka aizspriedumu problēma.

Es to aktualizēju, jo mēs esam liecinieki pakāpeniskai un lielai pārejai uz AI izmantošanu algoritmu lēmumu pieņemšanas (ADM) veidā. Ja jūs varat aizstāt cilvēku ar AI, pastāv iespēja, ka radīsies daudz priekšrocību. Kā jau minēts, jūs vairs neuztraucieties par šī darbinieka cilvēciskajiem aizspriedumiem (tā, kurš vairs nedara šo darbu). Pastāv iespēja, ka AI kopumā būs lētāks, salīdzinot ar ilgtermiņa laika horizontu. Jūs atbrīvojaties no visām pārējām dažādajām grūtībām, kas rodas ar cilvēku strādniekiem. utt.

Šķiet, ka priekšlikums, kas kļūst arvien populārāks, ir šāds: Mēģinot izlemt, kur vislabāk izvietot AI, vispirms pievērsiet uzmanību iestatījumiem, kas jau ir saistīti ar jūsu darbinieku nevēlamu cilvēku aizspriedumiem un kuriem šie aizspriedumi samazina vai citādi pārmērīgi sarežģī konkrētu lēmumu pieņemšanas uzdevumu izpildi.

Secinājums ir tāds, ka, ieguldot mākslīgā intelektā, būtu saprātīgi nopelnīt vislielāko peļņu, mērķējot tieši uz ļoti atklātiem cilvēka lēmumu pieņemšanas uzdevumiem, kurus ir grūti kontrolēt, raugoties no nevēlamās novirzes. Noņemiet cilvēkus, kas pilda šo lomu. Nomainiet tos ar AI. Tiek pieņemts, ka AI nebūtu tik nevēlamu aizspriedumu. Tāpēc jūs varat ēst savu kūku un arī to apēst, proti, uzņemties lēmumu pieņemšanas uzdevumus un to darīt, atskaitot nevēlamo aizspriedumu ētisko un juridisko rēgu.

Ja to norādīsit, ROI (ieguldījumu atdeve), visticamāk, padarīs AI pārņemšanu par vienkāršu izvēli.

Lūk, kā tas parasti notiek.

Apskatiet visu savu uzņēmumu un mēģiniet noteikt lēmumu pieņemšanas uzdevumus, kas ietekmē klientus. Kuri no šiem uzdevumiem, visticamāk, tiks neatbilstoši ietekmēti, ja darbinieki iemieso nevēlamus aizspriedumus? Ja jūs jau esat mēģinājis ierobežot šos aizspriedumus, iespējams, ļaujiet lietām stāvēt tā, kā tas ir. No otras puses, ja novirzes turpina parādīties un centieni tos novērst ir apgrūtinoši, apsveriet iespēju šajā lomā iekļaut kādu piemērotu AI. Neturiet darbiniekus savā starpā, jo viņi var ignorēt AI vai iegrūst AI tieši atpakaļ nevēlamo aizspriedumu bezdibenī. Tāpat pārliecinieties, vai AI var prasmīgi veikt uzdevumu un ka esat pietiekami apguvis lēmumu pieņemšanas aspektus, kas nepieciešami darba veikšanai.

Noskalo un atkārtojiet.

Es saprotu, ka tas šķiet vienkāršs jēdziens, lai gan saprotu, ka ir daudz veidu, kā cilvēku darbinieku aizstāšana ar AI var viegli noiet greizi. Daudzi uzņēmumi vēlējās veikt šādas darbības un nedomāja, kā to izdarīt. Rezultātā viņi bieži sarīkoja daudz sliktāku haosu, nekā viņiem bija sākumā.

Es vēlos precizēt un uzsvērt, ka AI nav panaceja.

Runājot par to, ir viena milzīga aizķeršanās, kas saistīta ar šķietami neobjektīvu lēmumu pieņēmēju izmešanu ar it kā objektīvo AI. Šķērs ir tāda, ka jūs, iespējams, vienkārši aizstājat vienu nevēlamu aizspriedumu kopumu ar citu. Atbilstoši iepriekšējai norādei AI var saturēt nevēlamus aizspriedumus un var ietekmēt šos aizspriedumus. Nekaunīgs pieņēmums, ka neobjektīvu cilvēku aizstāšana ar objektīvu AI vēl nav viss, par ko tas var būt.

Īsāk sakot, šis ir darījums, aplūkojot lietu stingri no neobjektivitātes faktoriem:

  • AI nav nevēlamu aizspriedumu, un tāpēc uz AI balstīto ADM ir ērti izvietot
  • AI ir tādas pašas nevēlamas novirzes kā cilvēkiem, kas tiek aizstāti, un tāpēc uz AI balstītā ADM ir satraucoša
  • AI ievieš jaunus nevēlamus aizspriedumus, kas pārsniedz to cilvēku aizspriedumus, kuri tiek aizstāti, un, iespējams, attiecīgi pasliktinās situāciju
  • AI sākumā šķiet labi, un pēc tam pakāpeniski mainās uz nevēlamiem aizspriedumiem
  • cits

Mēs varam īsi izpakot šīs iespējas.

Pirmā ir idealizēta versija par to, kas varētu notikt. AI nav nevēlamu aizspriedumu. Jūs ievietojat AI vietā, un tas lieliski paveic savu darbu. Labi tev! Protams, varētu cerēt, ka jūs kaut kādā veidā esat risinājuši arī cilvēku darbinieku pārvietošanu mākslīgā intelekta iekļaušanas dēļ.

Otrajā gadījumā jūs ieviešat mākslīgo intelektu un atklājat, ka AI ir tādas pašas nevēlamas novirzes, kādas bija darbiniekiem. Kā tas var būt? Izplatīts veids, kā iekļūt šajā slazdā, ir mašīnmācības (ML) un dziļās mācīšanās (DL) izmantošana, pamatojoties uz savāktajiem datiem par to, kā šajā lomā iesaistītie cilvēki iepriekš pieņēma lēmumus.

Ļaujiet man nedaudz paskaidrot.

ML/DL ir skaitļošanas modeļu saskaņošanas veids. Parastā pieeja ir tāda, ka jūs apkopojat datus par lēmumu pieņemšanas uzdevumu. Jūs ievadāt datus ML/DL datoru modeļos. Šie modeļi cenšas atrast matemātiskos modeļus. Pēc šādu modeļu atrašanas, ja tādi tiek atrasti, AI sistēma izmantos šos modeļus, sastopoties ar jauniem datiem. Uzrādot jaunus datus, pašreizējā lēmuma pieņemšanai tiek piemēroti modeļi, kuru pamatā ir “vecie” vai vēsturiskie dati.

Es domāju, ka jūs varat uzminēt, kurp tas virzās. Ja cilvēki, kas ir veikuši darbu gadiem ilgi, ir iekļāvuši nevēlamus aizspriedumus, pastāv iespēja, ka dati to atspoguļo smalki, bet nozīmīgi. Mašīnmācīšanās vai dziļās mācīšanās skaitļošanas modeļu saskaņošana vienkārši mēģinās attiecīgi matemātiski atdarināt datus. Modelēšanā pati par sevi nav nekādu veselā saprāta vai citu jūtīgu aspektu.

Turklāt AI izstrādātāji, iespējams, arī neapzinās, kas notiek. Arkāniskā matemātika var apgrūtināt tagad slēpto aizspriedumu novēršanu. Jūs pamatoti cerat un gaidāt, ka AI izstrādātāji pārbaudīs potenciāli apraktos aizspriedumus, lai gan tas ir sarežģītāk, nekā varētu šķist. Pastāv liela iespēja, ka pat ar salīdzinoši plašām pārbaudēm ML/DL modeļu atbilstības modeļos joprojām būs novirzes.

Kopumā jūs, iespējams, atgriezīsities pirmajā vietā. Tie paši nevēlamie cilvēku aizspriedumi tagad ir skaitļošanas veidā atspoguļoti AI sistēmā. Jūs neesat izskausts aizspriedumiem.

Vēl ļaunāk, jūs, iespējams, mazāk sapratīsit, ka AI ir novirzes. Cilvēku gadījumā jūs parasti varat būt piesardzīgs, ka cilvēkiem ir nevēlami aizspriedumi. Tā ir pamata cerība. AI izmantošana var likt vadītājiem noticēt, ka automatizācija ir pilnībā novērsusi jebkāda veida cilvēku aizspriedumus. Tādējādi viņi gatavojas, ka ir iešāvuši sev kājā. Viņi atbrīvojās no cilvēkiem ar šķietami zināmiem nevēlamiem aizspriedumiem, tos aizstājot ar AI, kuram, domājams, nebija šādu aizspriedumu, un tomēr tagad tie ir nodoti lietošanā AI, kas ir pārpildīta ar tādiem pašiem aizspriedumiem, par kuriem jau zināms.

Tas var padarīt lietas patiešām acīs. Jūs, iespējams, esat noņēmis citus aizsargmargas, kas tika izmantotas ar darbiniekiem, kas tika izveidoti, lai atklātu un novērstu jau iepriekš paredzēto cilvēku aizspriedumu rašanos. AI tagad ir brīvas rokas. Nekas nav vietā, lai to uztvertu, pirms rīkoties. Pēc tam mākslīgais intelekts varētu sākt vadīt jūs pa traku ceļu, kas veido milzīgu neobjektīvu darbību uzkrāšanos.

Un jūs atrodaties neērtā un, iespējams, atbildīgā stāvoklī, ko kādreiz zinājāt par aizspriedumiem un tagad esat ļāvis šiem aizspriedumiem radīt postījumus. Iespējams, viena lieta ir tāda, ka nekad neesat saskāries ar šādiem nevēlamiem aizspriedumiem, un tad pēkšņi mākslīgais intelekts tos atsper. Jūs varētu mēģināt to attaisnot ar "kurš būtu uzminējis" veida traucētāju (varbūt ne pārāk pārliecinoši). Taču, ja tagad esat iestatījis mākslīgo intelektu, kas veic tādas pašas nevēlamas neobjektīvas darbības kā iepriekš, jūsu attaisnojumi kļūst arvien plānāki.

Šīs izmaiņas nozīmē, ka mākslīgais intelekts izrāda nevēlamas novirzes, kas iepriekš nebija sastaptas, kad cilvēki veica uzdevumu. Varētu teikt, ka to, iespējams, ir grūtāk novērst, jo tas sastāv no “jauniem” aizspriedumiem, kurus uzņēmums iepriekš nebija meklējis. Tomēr galu galā attaisnojumi var nesniegt jums lielu atvieglojumu. Ja mākslīgā intelekta sistēma ir nonākusi neētiskā un nelikumīgā teritorijā, jūsu zoss var būt pagatavota.

Vēl viens aspekts, kas jāpatur prātā, ir tas, ka mākslīgais intelekts var sākt darboties labi un pēc tam nonākt nevēlamā novirzienā. Tas ir īpaši iespējams, ja nepārtraukti tiek izmantota mašīnmācīšanās vai dziļā mācīšanās, lai AI būtu atjaunināta. Neatkarīgi no tā, vai ML/DL darbojas reāllaikā vai periodiski veic atjauninājumus, ir jāpievērš uzmanība tam, vai AI, iespējams, pārņem datus, kas tagad satur novirzes un kas iepriekš nebija pieejami.

Līderiem, kuri domā, ka viņi saņem bezmaksas pusdienas, vicinot burvju nūjiņu, lai aizstātos neobjektīvus cilvēkus ar AI, viņus gaida ļoti rupja pamošanās. Skatiet manu diskusiju par to, cik svarīgi ir pilnvarot vadītājus ar AI ētikas priekšrakstiem vietnē saite šeit.

Šajā šīs diskusijas posmā es varu derēt, ka jūs vēlaties dažus reālus piemērus, kas varētu parādīt, cik grūti ir aizstāt (vai ne) cilvēku nelabvēlīgos aizspriedumus ar AI balstītiem nevēlamiem aizspriedumiem.

Priecājos, ka pajautāji.

Ir īpašs un noteikti populārs piemēru kopums, kas man ir tuvs. Redziet, manā kā MI ekspertam, tostarp ētiskajām un juridiskajām sekām, man bieži tiek lūgts identificēt reālistiskus piemērus, kas parāda AI ētikas dilemmas, lai varētu vieglāk uztvert tēmas nedaudz teorētisko raksturu. Viena no visspilgtākajām jomām, kas spilgti atspoguļo šo ētisko AI problēmu, ir uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās. Tas kalpos kā ērts lietošanas gadījums vai paraugs plašai diskusijai par šo tēmu.

Šeit ir viens ievērības cienīgs jautājums, par kuru ir vērts padomāt: Vai uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās kaut ko izgaismo par nevēlamām AI novirzēm, un, ja tā, ko tas parāda?

Ļaujiet man kādu brīdi izpakot jautājumu.

Pirmkārt, ņemiet vērā, ka īstā pašbraucošā automašīnā nav cilvēka vadītāja. Ņemiet vērā, ka patiesas pašbraucošas automašīnas tiek vadītas, izmantojot AI braukšanas sistēmu. Nav nepieciešams cilvēks pie stūres, kā arī nav paredzēts, ka cilvēks varētu vadīt transportlīdzekli. Manu plašo un pastāvīgo informāciju par autonomajiem transportlīdzekļiem (AV) un īpaši pašbraucošām automašīnām sk. saite šeit.

Es vēlētos vēl vairāk precizēt, kas ir domāts, runājot par patiesām pašbraucošām automašīnām.

Izpratne par pašbraucošo automašīnu līmeņiem

Kā paskaidrojums, patiesas pašpiedziņas automašīnas ir tādas, ka mākslīgais intelekts pilnībā vada automašīnu, un braukšanas uzdevuma veikšanai nav nepieciešama cilvēka palīdzība.

Šie bezvadītāja transportlīdzekļi tiek uzskatīti par 4. un 5. līmeni (skatiet manu skaidrojumu vietnē šī saite šeit), savukārt automašīna, kuras vadītājam ir jādalās braukšanas piepūlē, parasti tiek uzskatīta par 2. vai 3. līmeni. Automašīnas, kas kopīgi veic vadīšanas uzdevumu, ir aprakstītas kā daļēji autonomas, un parasti tajās ir dažādas automatizēti papildinājumi, kas tiek saukti par ADAS (Advanced Driver-Assistance Systems).

5. līmenī vēl nav īstas pašbraucošas automašīnas, par kurām mēs pat nezinām, vai to būs iespējams sasniegt, un arī cik ilgs laiks būs vajadzīgs, lai tur nokļūtu.

Tikmēr 4. līmeņa centieni pakāpeniski mēģina iegūt zināmu saķeri, veicot ļoti šauru un selektīvu koplietošanas ceļu izmēģinājumus, lai gan pastāv strīdi par to, vai šī pārbaude ir jāatļauj per se (mēs visi esam dzīvības vai nāves jūrascūciņas eksperimentā kas notiek uz mūsu lielceļiem un blakusceļiem, daži apgalvo, skatiet manu pārklājumu vietnē šī saite šeit).

Tā kā pusautomātiskajām automašīnām ir nepieciešams autovadītājs, kas izmanto cilvēku, šāda veida automašīnas pieņemšana ievērojami neatšķirsies no parastā transporta līdzekļa vadīšanas, tāpēc per se nav daudz jaunu, lai par tām runātu par šo tēmu (lai gan, kā redzēsit pēc brīža nākamie punkti parasti ir piemērojami).

Pusautonomām automašīnām ir svarīgi, lai sabiedrība tiktu brīdināta par satraucošu aspektu, kas rodas pēdējā laikā, proti, ka, neskatoties uz tiem autovadītājiem, kas turpina publicēt video, kā viņi aizmiguši pie 2. vai 3. līmeņa automašīnas stūres , mums visiem jāizvairās no maldināšanas, uzskatot, ka vadītājs, vadot daļēji autonomu automašīnu, var novērst uzmanību no braukšanas uzdevuma.

Jūs esat atbildīgā persona par transportlīdzekļa vadīšanas darbībām neatkarīgi no tā, cik daudz automatizācijas var iemest 2. vai 3. līmenī.

Pašbraucošas automašīnas un mākslīgais intelekts ar nevēlamiem aizspriedumiem

4. un 5. līmeņa īstiem pašpiedziņas transportlīdzekļiem braukšanas uzdevumā nebūs iesaistīts autovadītājs.

Visi pasažieri būs pasažieri.

AI veic braukšanu.

Viens aspekts, kas nekavējoties jāapspriež, ietver faktu, ka AI, kas iesaistīts mūsdienu AI braukšanas sistēmās, nav jūtīgs. Citiem vārdiem sakot, AI kopumā ir datorizētas programmēšanas un algoritmu kolektīvs, un, protams, tas nespēj spriest tāpat kā cilvēki.

Kāpēc šis papildu uzsvars tiek likts uz to, ka AI nav jūtīgs?

Tā kā es gribu pasvītrot, ka, apspriežot AI braukšanas sistēmas lomu, es nepiešķiru AI cilvēka īpašības. Lūdzu, ņemiet vērā, ka mūsdienās pastāv un ir bīstama tendence antropomorfizēt AI. Būtībā cilvēki piešķir mūsdienu cilvēka intelektu mūsdienu AI, neskatoties uz nenoliedzamu un neapstrīdamu faktu, ka šāda AI vēl nav.

Izmantojot šo precizējumu, jūs varat iedomāties, ka AI braukšanas sistēma dabiski kaut kā “nezinās” par braukšanas aspektiem. Braukšana un viss, kas ar to saistīts, būs jāprogrammē kā daļa no pašpiedziņas automašīnas aparatūras un programmatūras.

Iegremdēsimies neskaitāmos aspektos, kas nāk par šo tēmu.

Pirmkārt, ir svarīgi saprast, ka ne visas AI pašbraucošās automašīnas ir vienādas. Katrs autoražotājs un pašpiedziņas tehnoloģiju uzņēmums izmanto savu pieeju, lai izstrādātu pašbraucošas automašīnas. Tādējādi ir grūti sniegt visaptverošus paziņojumus par to, ko AI vadīšanas sistēmas darīs vai nedarīs.

Turklāt ikreiz, kad tiek apgalvots, ka AI vadīšanas sistēma nedara kādu konkrētu lietu, to vēlāk var apsteigt izstrādātāji, kuri faktiski programmē datoru, lai to izdarītu. Soli pa solim AI braukšanas sistēmas tiek pakāpeniski uzlabotas un paplašinātas. Esošais ierobežojums šodien, iespējams, vairs nepastāvēs turpmākajā sistēmas iterācijā vai versijā.

Es ticu, ka tas sniedz pietiekamu iebildumu litāniju, lai pamatotu to, ko es drīzumā stāstu.

Šobrīd esam gatavi dziļi izpētīt pašbraucošās automašīnas un ētiskās AI iespējas, kas ietver AI un nevēlamu aizspriedumu izpēti.

Izmantosim viegli saprotamu piemēru. Uz AI balstīta pašbraucoša automašīna atrodas jūsu apkārtnes ielās, un šķiet, ka tā brauc droši. Sākumā jūs bijāt īpašu uzmanību veltījis katrai reizei, kad izdevās acīs redzēt pašbraucošo automašīnu. Autonomais transportlīdzeklis izcēlās ar savu elektronisko sensoru plauktu, kas ietvēra videokameras, radara blokus, LIDAR ierīces un tamlīdzīgus elementus. Pēc daudzām nedēļām, kad pašpiedziņas auto braukāja pa jūsu kopienu, jūs to tik tikko pamanāt. Ciktāl jums tas attiecas, tā ir tikai vēl viena automašīna uz jau tā noslogotajiem koplietošanas ceļiem.

Lai jums nešķiet, ka ir neiespējami vai neticami iepazīties ar pašbraucošo automašīnu redzēšanu, esmu bieži rakstījis par to, kā vietas, kas ir pašbraucošo automašīnu izmēģinājumu ietvaros, pamazām ir pieradušas redzēt izsmalcinātus transportlīdzekļus, skatiet manu analīzi vietnē šī saite šeit. Daudzi vietējie iedzīvotāji galu galā pārgāja no aizrautīgās raudāšanas uz muti, bet tagad izstaro plašu garlaicības žāvas sajūtu, lai redzētu šīs līkumotās pašbraucošās automašīnas.

Iespējams, šobrīd galvenais iemesls, kāpēc viņi varētu pamanīt autonomos transportlīdzekļus, ir kairinājuma un sašutuma faktors. Pašreizējās AI braukšanas sistēmas nodrošina, ka automašīnas ievēro visus ātruma ierobežojumus un ceļu satiksmes noteikumus. Tradicionālie cilvēku vadītie autovadītāji, kuri brauc ar savām tradicionālajām cilvēku vadītajām automašīnām, dažkārt ir sašutuši, kad ir iestrēguši aiz strikti likumpaklausīgām AI pašbraucošām automašīnām.

Tas ir kaut kas, kas mums visiem, iespējams, ir jāpierod, pareizi vai nepareizi.

Atpakaļ pie mūsu pasakas.

Izrādās, ka sāk rasties divas nepiedienīgas bažas par citādi nekaitīgajām un kopumā atzinīgi novērtētajām uz AI balstītām pašbraucošām automašīnām, jo ​​īpaši:

a. Vietas, kur mākslīgais intelekts viesabonē pašbraucošās automašīnas, lai iegūtu braucienus, ir kļuvusi par satraucošu problēmu sabiedrībā kopumā

b. Arvien aktuāla problēma ir arī tas, kā mākslīgais intelekts izturas pret gaidošajiem gājējiem, kuriem nav priekšroka.

Sākumā AI viesabonēja pašpiedziņas automašīnas visā pilsētā. Ikvienam, kurš vēlējās pieprasīt braucienu ar pašpiedziņas automašīnu, būtībā bija vienādas iespējas to saņemt. Pakāpeniski mākslīgais intelekts sāka galvenokārt nodrošināt pašbraucošo automašīnu viesabonēšanu tikai vienā pilsētas daļā. Šī sadaļa bija lielāka naudas pelnītāja, un mākslīgā intelekta sistēma tika ieprogrammēta, lai mēģinātu palielināt ieņēmumus kā daļu no izmantošanas sabiedrībā.

Pilsētas nabadzīgajās daļās kopienas locekļiem bija mazāka iespēja braukt ar pašbraucošu automašīnu. Tas bija tāpēc, ka pašbraucošās automašīnas atradās tālāk un viesabonēja apgabalā ar lielāku ieņēmumu daļu. Ja pieprasījums tiek saņemts no attālas pilsētas daļas, jebkuram pieprasījumam no tuvākas vietas, kas, iespējams, atrodas “cienījamā” pilsētas daļā, tiks piešķirta augstāka prioritāte. Galu galā pašpiedziņas automašīnas iegūšana jebkurā vietā, izņemot pilsētas bagātāko daļu, bija gandrīz neiespējama, un tas bija satraucoši tiem, kas dzīvoja apgabalos, kuros tagad trūkst resursu.

Jūs varētu apgalvot, ka AI diezgan lielā mērā ir nokļuvusi starpnieka diskriminācijas veidā (ko bieži dēvē arī par netiešo diskrimināciju). AI nebija ieprogrammēts, lai izvairītos no šiem nabadzīgākajiem rajoniem. Tā vietā tas “iemācījās” to darīt, izmantojot ML/DL.

Lieta tāda, ka braucienu koplietošanas cilvēki bija pazīstami ar to pašu, lai gan ne vienmēr tikai naudas pelnīšanas leņķa dēļ. Dažiem braucienu koplietošanas vadītājiem bija nevēlama attieksme pret braucēju uzņemšanu noteiktās pilsētas daļās. Tā bija zināmā mērā zināma parādība, un pilsēta bija ieviesusi uzraudzības pieeju, lai notvertu cilvēkus, kas to dara. Cilvēku vadītāji var nonākt nepatikšanās, veicot nepatīkamas atlases prakses.

Tika pieņemts, ka mākslīgais intelekts nekad neiekristu tādās pašās plūstošās smiltīs. Netika izveidota specializēta uzraudzība, lai izsekotu, kur virzās uz AI balstītas pašbraucošās automašīnas. Tikai pēc tam, kad sabiedrības locekļi sāka sūdzēties, pilsētas vadītāji saprata, kas notiek. Lai uzzinātu vairāk par šāda veida pilsētas mēroga problēmām, ar kurām tiks iepazīstināti autonomie transportlīdzekļi un pašbraucošās automašīnas, skatiet manu informāciju vietnē šī saite šeit un kurā ir aprakstīts Hārvardas vadītais pētījums, ko es biju līdzautors par šo tēmu.

Šis uz mākslīgo intelektu balstītu pašbraucošo automašīnu viesabonēšanas aspektu piemērs ilustrē agrāko norādi, ka var būt situācijas, kas saistītas ar cilvēkiem ar nevēlamiem aizspriedumiem, kurām tiek ieviesta kontrole, un ka mākslīgais intelekts, kas aizstāj šos cilvēkus vadītājus, ir atstāts pilnībā. bezmaksas. Diemžēl mākslīgais intelekts pēc tam var pakāpeniski iestigt līdzīgos aizspriedumos un darīt to bez pietiekamām aizsargmargām.

Otrs piemērs ir saistīts ar to, ka mākslīgais intelekts nosaka, vai apstāties, lai gaidītu gājējus, kuriem nav tiesību šķērsot ielu.

Jūs, bez šaubām, esat braucis un sastapies ar gājējiem, kuri gaidīja, lai šķērsotu ielu, taču viņiem nebija priekšroka to darīt. Tas nozīmēja, ka jums bija iespēja izvēlēties, vai apstāties un ļaut viņiem šķērsot. Jūs varētu turpināt, neļaujot viņiem šķērsot, un joprojām pilnībā ievērot likumīgos braukšanas noteikumus.

Pētījumi par to, kā autovadītāji izlemj apstāties vai neapstāties šādiem gājējiem, liecina, ka dažreiz autovadītāji izvēlas, pamatojoties uz nevēlamiem aizspriedumiem. Cilvēka vadītājs var paskatīties uz gājēju un izvēlēties neapstāties, pat ja viņš būtu apstājies, ja gājējam būtu bijis atšķirīgs izskats, piemēram, rases vai dzimuma dēļ. Esmu to izskatījis plkst saite šeit.

Iedomājieties, ka uz mākslīgā intelekta balstītas pašbraucošās automašīnas ir ieprogrammētas, lai risinātu jautājumu par to, vai apstāties vai neapstāties gājējiem, kuriem nav priekšroka. Lūk, kā AI izstrādātāji nolēma ieprogrammēt šo uzdevumu. Viņi apkopoja datus no pilsētas videokamerām, kas ir izvietotas visā pilsētā. Dati parāda cilvēku vadītājus, kuri apstājas gājējiem, kuriem nav priekšnoteikuma, un cilvēku vadītājus, kuri neapstājas. Tas viss ir apkopots lielā datu kopā.

Izmantojot mašīnmācīšanos un dziļo apmācību, dati tiek modelēti skaitļošanas veidā. AI braukšanas sistēma pēc tam izmanto šo modeli, lai izlemtu, kad apstāties vai neapstāties. Parasti ideja ir tāda, ka neatkarīgi no vietējās paražas, mākslīgais intelekts tieši šādi virza pašbraucošo automašīnu.

Par pārsteigumu pilsētas vadītājiem un iedzīvotājiem, AI acīmredzami izvēlējās apstāties vai neapstāties, pamatojoties uz gājēja izskatu, tostarp viņa rasi un dzimumu. Pašbraucošās automašīnas sensori skenētu gaidošo gājēju, ievadītu šos datus ML/DL modelī, un modelis raidītu AI, vai apstāties vai turpināt. Diemžēl pilsētā jau bija daudz cilvēku vadītāju aizspriedumu šajā sakarā, un AI tagad atdarināja to pašu.

Labā ziņa ir tā, ka tas rada problēmu, par kuru gandrīz neviens iepriekš nezināja. Sliktā ziņa bija tā, ka, tā kā mākslīgais intelekts tika pieķerts to darot, lielākā daļa vainojama tā. Šis piemērs ilustrē, ka AI sistēma var tikai dublēt jau pastāvošos cilvēku nelabvēlīgos aizspriedumus.

Secinājumi

Ir daudz veidu, kā mēģināt izvairīties no mākslīgā intelekta izstrādes, kurā vai nu ārpus vārtiem ir nevēlamas novirzes, vai arī tas laika gaitā atklāj novirzes. Viena pieeja paredz nodrošināt, ka mākslīgā intelekta izstrādātāji apzinās šo notikumu un tādējādi ļauj viņiem ieprogrammēt AI, lai novērstu šo problēmu. Vēl viena iespēja ir AI paškontrole attiecībā uz neētisku uzvedību (skatiet manu diskusiju vietnē saite šeit) un/vai jums ir cita AI daļa, kas pārrauga citas AI sistēmas, lai noteiktu potenciāli neētisku uzvedību (es esmu to apskatījis vietnē saite šeit).

Atgādinot, mums ir jāsaprot, ka cilvēkiem var būt nevēlami aizspriedumi un ka viņiem kaut kādā veidā ir jāzina savi ierobežojumi. Tāpat AI var būt nevēlamas novirzes, un mums kaut kā jāzina to ierobežojumi.

Tiem no jums, kas dedzīgi pieņem mākslīgā intelekta ētiku, es vēlētos tūlīt beigt ar citu slavenu līniju, kas visiem jau ir jāzina. Proti, lūdzu, turpiniet izmantot un dalīties ar ētiskā AI nozīmi. Un, to darot, es bezkaunīgi teiktu: "Uz priekšu, padariet manu dienu."

Avots: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/