AI ētika un AI likums virzās uz standartiem, kas skaidri identificē un pārvalda AI novirzes

Vai esat kādreiz spēlējis piecdesmit divu kāršu paņemšanu?

Tā nav spēle, ko jūs parasti labprāt uzņemtos. Lūk, kāpēc. Kāds jums piedāvā, ka tas ir it kā jautrs sporta veids, un, ja jūs lietojat saldo ēsmu, viņi izmet gaisā veselu spēļu kāršu komplektu un reizē uz grīdas. Pēc tam persona jums bezkaunīgi pasmaida un liek jums paņemt kārtis. Tā ir visa spēle.

Jocnieks!

Man ir mazliet pārdomāts jautājums, ko jums par to uzdot.

Pieņemsim, ka viena no kartēm noslīdēja zem blakus esošā dīvāna. Kad esat pabeidzis paņemt visas kārtis, jūs zināt, ka trūkst vienas, jo jūsu rokā būs tikai piecdesmit viena.

Jautājums ir, vai jūs varētu noteikt, kura karte trūka?

Esmu pārliecināts, ka jūs uzreiz teiktu, ka jūs varētu viegli saprast, kura karte nav jūsu rokās. Viss, kas jums jādara, ir sakārtot klāju. Jūs zināt, ka standarta klājs sastāv no četriem uzvalkiem un ka katrā masts kārtis ir numurētas no viena līdz desmit un pēc tam džeks, karaliene un karalis.

Jūs to zināt, jo standarta spēļu kāršu komplekts ir balstīts uz standartu.

Oho, šis apgalvojums varētu šķist viens no šiem pilnīgi acīmredzamajiem apgalvojumiem. Nu jā, protams, standarta spēļu klāja pamatā ir standarts. Mēs visi to zinām. Es domāju, ka, ja mums ir standarts, mēs varam paļauties uz standartu, kad tas ir nepieciešams. Papildus tam, ka varat secināt, kāda kārts trūkst klājā, jūs varat arī viegli spēlēt miljardiem labi zināmu kāršu spēļu ar citiem cilvēkiem. Kad kādam ir pastāstīti spēles noteikumi, viņš var tieši spēlēt, jo viņš jau pilnībā zina, no kā sastāv spēle. Jums nav viņiem jāpaskaidro, ka klājā ir četri masti un dažādi numurētas kārtis. Viņi jau zina, ka tā ir.

Kur es eju ar šo?

Es cenšos jūs virzīt pa ceļu, kas ir būtisks līdzeklis, lai gūtu panākumus AI jomā un jo īpaši AI ētikas un ētiskās AI jomā. Redziet, mums ir jācenšas izstrādāt plaši izplatītus un vispārpieņemtus AI ētikas standartus. Ja mēs to varēsim izdarīt, tas atvieglos ētiskā AI ieviešanu un nepārprotami tiks vērsts uz AI sistēmu uzlabošanu, kuras tirgū pastāvīgi tiek izmestas (piemēram, neskaitāms un nesakārtots savvaļas karšu komplekts). Manu pastāvīgo un plašo informāciju par AI ētiku, ētisko AI un AI likumu sk. saite šeit un saite šeit, tikai nosaukt dažus.

Viens konkrēts mākslīgā intelekta ētikas segments vai daļa, kas ir saņēmusi lielu plašsaziņas līdzekļu uzmanību, ir mākslīgais intelekts, kas demonstrē nevēlamus aizspriedumus un nevienlīdzību. Jūs varētu zināt, ka tad, kad sākās jaunākā AI ēra, bija milzīgs entuziasma uzliesmojums par to, ko daži tagad sauc. AI uz labu. Diemžēl mēs sākām būt liecinieki šim uzliesmojumam AI For Bad. Piemēram, ir atklāts, ka dažādas uz AI balstītas sejas atpazīšanas sistēmas satur rasu un dzimuma aizspriedumus, par ko esmu runājis saite šeit.

Centieni cīnīties pret AI For Bad aktīvi norisinās. Turklāt skaļš juridisks Mēģinot savaldīt pārkāpumus, notiek arī būtisks grūdiens AI ētikas ievērošanai, lai izlabotu AI neģēlību. Domājams, ka mums ir jāpieņem un jāapstiprina galvenie ētiskie AI principi AI izstrādei un izmantošanai, tādējādi samazinot AI For Bad un vienlaikus sludinot un popularizējot vēlamo AI uz labu.

Saistībā ar to es iestājos par mēģinājumu izmantot AI kā daļu no AI problēmu risinājuma, cīnoties pret uguni ar uguni šādā domāšanas veidā. Piemēram, mēs varētu iegult ētiskos AI komponentus AI sistēmā, kas uzraudzīs, kā pārējais AI dara lietas, un tādējādi, iespējams, reāllaikā uztvers jebkādus diskriminējošus centienus. Skatiet manu diskusiju vietnē saite šeit. Mums varētu būt arī atsevišķa AI sistēma, kas darbojas kā AI ētikas monitora veids. AI sistēma kalpo kā pārraugs, lai izsekotu un noteiktu, kad cits AI nonāk neētiskajā bezdibenī (skatiet manu analīzi par šādām iespējām vietnē saite šeit).

Pēc brīža es dalīšos ar dažiem visaptverošiem principiem, kas ir AI ētikas pamatā. Šur tur ir daudz šāda veida sarakstu. Varētu teikt, ka vēl nav vienota universālas pievilcības un vienprātības saraksta. Tā ir nelaimīgā ziņa. Labā ziņa ir tā, ka vismaz ir viegli pieejami AI ētikas saraksti, un tie mēdz būt diezgan līdzīgi. Kopumā tas liek domāt, ka ar sava veida pamatotu konverģenci mēs atrodam ceļu uz vispārēju kopību tam, no kā sastāv AI ētika.

Es to ierosinu, lai nodrošinātu pamatu manai diskusijai šeit, kurā galvenā uzmanība tiks pievērsta konkrētam segmentam vai daļai no plašākas AI ētikas jomas, proti, kā minēts iepriekš, specifiskajam AI aizspriedumu elementam. Iemesls, kāpēc es dalos ar jums šajā tēmā, ir tas, ka Nacionālā standartu un tehnoloģiju institūta (NIST) izdotais dokuments cenšas panākt, lai mēs virzītos uz standartu, kas raksturo AI novirzes. Dokumentam ir tiesības Ceļā uz standartu mākslīgā intelekta aizspriedumu identificēšanai un pārvaldībai autori Reva Švarca, Apostols Vasiļevs, Kristena Grīna, Lorija Perīna, Endrjū Bērts un Patriks Hols, un to publicēja ASV Tirdzniecības departaments, NIST īpašā publikācija 1270. 2022. gada martā.

Mēs atklāsim šos parocīgos un iedrošinošos centienus, lai noskaidrotu, ko mēs saprotam ar AI aizspriedumiem. Vecais teiciens ir tāds, ka jūs nevarat pārvaldīt to, ko nevarat izmērīt. Izmantojot standartu, kas nosaka dažādas AI novirzes, varat sākt izmērīt un pārvaldīt AI aizspriedumu postu.

Pirmkārt, īsi apskatīsim dažus vispārējos ētiskā AI priekšrakstus, lai ilustrētu, kam vajadzētu būt ļoti svarīgam ikvienam, kas izstrādā, izmanto vai izmanto AI.

Piemēram, kā to norādījis Vatikāns Roma aicinājums uz AI ētiku un kā esmu padziļināti aprakstījis plkst saite šeit, šie ir viņu identificētie seši galvenie AI ētikas principi:

  • Pārredzamība: Principā AI sistēmām ir jābūt izskaidrojamām
  • Iekļaušana: Ir jāņem vērā visu cilvēku vajadzības, lai ikviens varētu gūt labumu un visiem indivīdiem varētu piedāvāt vislabākos iespējamos apstākļus, lai izpaustos un attīstītos.
  • Atbildība: Tiem, kas izstrādā un ievieš AI izmantošanu, ir jārīkojas atbildīgi un pārredzami
  • objektivitāte: Neveidojiet un nerīkojieties saskaņā ar aizspriedumiem, tādējādi aizsargājot godīgumu un cilvēka cieņu
  • Uzticamība: AI sistēmām jāspēj darboties uzticami
  • Drošība un privātums: AI sistēmām ir jādarbojas droši un jāievēro lietotāju privātums.

Kā norādīja ASV Aizsardzības departaments (DoD) savā Mākslīgā intelekta izmantošanas ētikas principi un kā esmu padziļināti aprakstījis plkst saite šeit, šie ir viņu seši galvenie AI ētikas principi:

  • Atbildīgais: DoD darbinieki veiks atbilstošu spriedumu un rūpību, vienlaikus paliekot atbildīgi par AI iespēju izstrādi, izvietošanu un izmantošanu.
  • Taisnīgs: Departaments veiks apzinātus pasākumus, lai samazinātu neparedzētu AI iespēju novirzi.
  • Izsekojams: Departamenta mākslīgā intelekta iespējas tiks izstrādātas un izvietotas tā, lai attiecīgajam personālam būtu atbilstoša izpratne par tehnoloģijām, izstrādes procesiem un darbības metodēm, kas piemērojamas AI spējām, tostarp izmantojot pārredzamas un auditējamas metodoloģijas, datu avotus un projektēšanas procedūru un dokumentāciju.
  • Reliable: Departamenta mākslīgā intelekta iespējām būs skaidri, precīzi definēti lietojumi, un šādu iespēju drošība, drošība un efektivitāte tiks pārbaudīta un garantēta noteiktajos lietojumos visā to dzīves ciklā.
  • Pārvaldāms: Departaments izstrādās un izstrādās mākslīgā intelekta iespējas, lai tās varētu izpildīt paredzētās funkcijas, vienlaikus spējot atklāt un izvairīties no neparedzētām sekām, kā arī atslēgt vai deaktivizēt izvietotās sistēmas, kas demonstrē neparedzētu uzvedību.

Esmu arī apspriedis dažādas AI ētikas principu kolektīvās analīzes, tostarp aptvēru pētnieku izstrādāto kopumu, kurā tika pārbaudīta un apkopota daudzu nacionālo un starptautisko AI ētikas principu būtība rakstā “The Global Landscape Of AI Ethics Guidelines” (publicēts). iekšā daba), un ka mans pārklājums pēta plkst saite šeit, kas noveda pie šī stūrakmens saraksta:

  • Caurspīdīgums
  • Taisnīgums un godīgums
  • Ne-ļaunprātība
  • atbildība
  • Privātums
  • Labums
  • Brīvība un autonomija
  • Uzticēties
  • Ilgtspējība
  • cieņa
  • Solidaritāte

Kā jūs varētu tieši nojaust, mēģināt noteikt šo principu pamatā esošo specifiku var būt ārkārtīgi grūti. Vēl jo vairāk, centieni pārvērst šos plašos principus par kaut ko pilnīgi taustāmu un pietiekami detalizētu, lai tos izmantotu AI sistēmu izstrādē, arī ir grūts rieksts. Kopumā ir viegli pamātīt ar roku par to, kas ir AI ētikas priekšraksti un kā tie vispārīgi jāievēro, savukārt AI kodēšanas situācija ir daudz sarežģītāka, ja tai ir jābūt īstai gumijai, kas saskaras ar ceļu.

AI ētikas principi ir jāizmanto AI izstrādātājiem, kā arī tiem, kas pārvalda AI izstrādes centienus, un pat tiem, kas galu galā ievieš un veic AI sistēmu uzturēšanu. Visas ieinteresētās puses visā AI izstrādes un lietošanas dzīves ciklā tiek uzskatītas par ētiskā AI noteikto normu ievērošanu. Tas ir svarīgs akcents, jo parasti tiek pieņemts, ka “tikai kodētājiem” vai tiem, kas programmē AI, ir jāievēro AI ētikas jēdzieni. Kā minēts iepriekš, ir nepieciešams ciemats, lai izstrādātu un ieviestu AI, un tam visam ciemam ir jābūt pieredzējušam un jāievēro AI ētikas priekšraksti.

Daudzu šo galveno AI ētikas priekšrakstu pamatā ir AI aizspriedumu mānīgais raksturs.

Tāpat kā kāršu komplekts, noteikti būtu lieliski, ja mēs varētu kaut kādā veidā sagrupēt AI novirzes “uzvalku” vai kategoriju komplektā. Patiešām, NIST dokuments piedāvā ieteikto grupu.

Tiek piedāvātas trīs galvenās kategorijas:

1) Sistēmiskas novirzes

2) Statistikas un skaitļošanas novirzes

3) Cilvēka aizspriedumi

Noteikti jāapsver, vai visas AI novirzes precīzi iekļaujas vienā no šīm trim kategorijām. Varat droši apgalvot, ka dažas AI novirzes vienlaikus ietilpst vienā, divās vai visās trīs kategorijās. Turklāt jūs varētu apgalvot, ka ir jāpiemin vairāk kategoriju, piemēram, ceturtā, piektā, sestā vai vairākas grupu sērijas.

Es ceru, ka tas ir tas, ko jūs domājat, jo mums ir jāiesaista visi, lai palīdzētu veidot šos standartus. Ja jūs satrauc tas, kā šie standarti vispirms tiek veidoti, es aicinu jūs pārvērst šo enerģiju, lai palīdzētu mums pārējiem padarīt šos topošos standartus tik stingrus un pilnīgus, kā tos var iegremdēt.

Pagaidām mēs varam tuvāk apskatīt piedāvātās trīs kategorijas un redzēt, ar kādu roku mums līdz šim ir tikusi galā (jā, es turpināšu izmantot analoģiju ar spēļu kāršu kavu, to darot visā šajā rakstītajā rakstā jūs varat likt savu zemāko dolāru uz šo ne tik slēpto tēmas dūzi).

Ko nozīmē atsauce uz sistēmiskām novirzēm?

Lūk, NIST dokumentā teikts: “Sistēmiskas novirzes rodas no konkrētu institūciju procedūrām un prakses, kas darbojas tādā veidā, kā rezultātā noteiktām sociālajām grupām ir priekšrocības vai labvēlība, bet citas tiek nelabvēlīgākas vai devalvētas. Tam nav jābūt apzinātu aizspriedumu vai diskriminācijas rezultātā, bet gan vairākumam, kas ievēro esošos noteikumus vai normas. Institucionālais rasisms un seksisms ir visizplatītākie piemēri” (ņemiet vērā, ka šis ir tikai īss izvilkums, un lasītāji tiek mudināti redzēt pilnīgāku skaidrojumu).

AI iekļaujas sistēmisku aizspriedumu sajaukumā, nodrošinot līdzekļus, kas ļauj pārraidīt un piemērot šīs novirzes uz AI balstītajās lietotnēs. Ikreiz, kad izmantojat ar AI izmantotu programmatūru, jūs zināt, ka tajā var būt daudz aizspriedumu, kas jau ir iestrādāti sistēmā, izmantojot uzņēmumus un nozares praksi, kas noveda pie AI izveides. Saskaņā ar NIST pētījumu: "Šīs novirzes ir sastopamas AI izmantotajās datu kopās un institucionālajās normās, praksē un procesos visā AI dzīves ciklā un plašākā kultūrā un sabiedrībā."

Pēc tam apsveriet novirzes, kas ir apzīmētas kā statistiskas un skaitļošanas novirzes.

NIST dokumentā teikts: “Statistikas un aprēķinu novirzes rodas no kļūdām, kas rodas, ja izlase nav reprezentatīva visai populācijai. Šīs novirzes rodas no sistemātiskas, nevis nejaušas kļūdas, un tās var rasties, ja nav aizspriedumu, neobjektivitātes vai diskriminējoša nolūka. AI sistēmās šīs novirzes ir sastopamas datu kopās un algoritmiskajos procesos, ko izmanto AI lietojumprogrammu izstrādē, un bieži rodas, ja algoritmi tiek apmācīti viena veida datiem un nevar ekstrapolēt tālāk par šiem datiem.

Šāda veida statistikas un skaitļošanas novirzes bieži tiek pārvērstas AI sistēmā, kas izmanto mašīnmācīšanos (ML) un dziļo apmācību (DL). Lai aktualizētu mūsdienu ML/DL svarīgos jautājumus, ir nepieciešama saistīta sānu pieskare par to, kas ir AI un kas ir ML/DL.

Pārliecināsimies, ka esam vienisprātis par mūsdienu AI būtību.

Mūsdienās nav AI, kas būtu jūtīgs. Mums šī nav. Mēs nezinām, vai jutīgais AI būs iespējams. Neviens nevar precīzi paredzēt, vai mēs sasniegsim jutīgu AI, kā arī to, vai jutīgs AI kaut kā brīnumaini spontāni radīsies skaitļošanas kognitīvās supernovas veidā (parasti saukta par singularitāti, skatiet manu pārklājumu vietnē saite šeit).

AI veids, uz kuru es koncentrējos, sastāv no nejūtošā AI, kas mums ir šodien. Ja mēs gribējām mežonīgi spekulēt par jūtīgs AI, šī diskusija varētu virzīties radikāli citā virzienā. Domājams AI būtu cilvēka kvalitātes. Jums jāņem vērā, ka jutīgais AI ir cilvēka kognitīvs ekvivalents. Vēl jo vairāk, tā kā daži uzskata, ka mums varētu būt superinteliģents AI, iespējams, ka šāds AI varētu būt gudrāks par cilvēkiem (manu superinteliģentā AI kā iespēju izpēti sk. pārklājums šeit).

Turēsim lietas piezemētākas un apsvērsim mūsdienu skaitļošanas nejūtīgo AI.

Saprotiet, ka mūsdienu mākslīgais intelekts nespēj “domāt” tādā pašā veidā kā cilvēka domāšana. Kad jūs mijiedarbojaties ar Alexa vai Siri, sarunu spējas var šķist līdzīgas cilvēka spējām, taču patiesībā tās ir skaitļošanas iespējas un tām trūkst cilvēka izziņas. Jaunākajā AI laikmetā ir plaši izmantota mašīnmācīšanās un dziļā mācīšanās, kas izmanto skaitļošanas modeļu saskaņošanu. Tas ir novedis pie AI sistēmām, kas izskatās pēc cilvēkiem līdzīgas tieksmes. Tikmēr mūsdienās nav neviena mākslīgā intelekta, kam būtu veselais saprāts un arī cilvēka spēcīgas domāšanas kognitīvi brīnumi.

ML/DL ir skaitļošanas modeļu saskaņošanas veids. Parastā pieeja ir tāda, ka jūs apkopojat datus par lēmumu pieņemšanas uzdevumu. Jūs ievadāt datus ML/DL datoru modeļos. Šie modeļi cenšas atrast matemātiskos modeļus. Pēc šādu modeļu atrašanas, ja tādi tiek atrasti, AI sistēma izmantos šos modeļus, sastopoties ar jauniem datiem. Uzrādot jaunus datus, pašreizējā lēmuma pieņemšanai tiek piemēroti modeļi, kuru pamatā ir “vecie” vai vēsturiskie dati.

Es domāju, ka jūs varat uzminēt, kurp tas virzās. Ja cilvēki, kas ir pieņēmuši pieņemtus lēmumus, ir iekļāvuši nevēlamus aizspriedumus, pastāv iespēja, ka dati to atspoguļo smalki, bet nozīmīgi. Mašīnmācīšanās vai dziļās mācīšanās skaitļošanas modeļu saskaņošana vienkārši mēģinās attiecīgi matemātiski atdarināt datus. AI radītajā modelēšanā per se nešķiet veselais saprāts vai citi jūtīgi aspekti.

Turklāt AI izstrādātāji, iespējams, arī neapzinās, kas notiek. Arkāniskā matemātika ML/DL var apgrūtināt tagad slēpto aizspriedumu novēršanu. Jūs pamatoti cerat un gaidāt, ka AI izstrādātāji pārbaudīs potenciāli apraktos aizspriedumus, lai gan tas ir sarežģītāk, nekā varētu šķist. Pastāv liela iespēja, ka pat ar salīdzinoši plašu testēšanu ML/DL modeļu atbilstības modeļos joprojām būs novirzes.

Jūs varētu mazliet izmantot slaveno vai bēdīgi slaveno sakāmvārdu par atkritumu savākšanu. Lieta ir tāda, ka tas vairāk līdzinās aizspriedumiem, kas mānīgi tiek iepludināti, AI iegremdējot aizspriedumus. AI lēmumu pieņemšanas algoritms (ADM) aksiomātiski kļūst piekrauts ar nevienlīdzību.

Nav labi.

Tādējādi mēs nonākam pie trešās kategorijas NIST trīs grupu komplektā, jo īpaši cilvēku aizspriedumu nozīme AI aizspriedumu rašanās procesā. Lūk, ko norāda NIST dokuments: “Cilvēka aizspriedumi atspoguļo sistemātiskas kļūdas cilvēka domāšanā, pamatojoties uz ierobežotu skaitu heiristisko principu un prognozējamām vērtībām vienkāršākām sprieduma darbībām. Šīs novirzes bieži vien ir netiešas un ir saistītas ar to, kā indivīds vai grupa uztver informāciju (piemēram, automatizētu AI izvadi), lai pieņemtu lēmumu vai aizpildītu trūkstošo vai nezināmo informāciju. Šīs novirzes ir visuresošas institucionālajos, grupu un individuālos lēmumu pieņemšanas procesos visā AI dzīves ciklā, kā arī AI lietojumprogrammu izmantošanā, kad tās ir ieviestas.

Tagad esat saņēmis ātro ievadu trīs kategorijās.

Es vēlētos ar jums padalīties ar kādu papildu vielu pārdomām, kas izteiktas NIST dokumentā. Diagramma to stāstījumā sniedz noderīgu kopsavilkumu par galvenajiem jautājumiem un apsvērumiem, kas ir pamatā katrai no trim AI novirzēm. Es tos šeit uzskaitu jūsu ērtībai un izglītošanai.

#1: Sistēmiskas novirzes

  • Kurš tiek skaitīts un kurš netiek skaitīts?

— problēmas ar latentiem mainīgajiem

— Atstumto grupu nepietiekama pārstāvība

— Nevienlīdzību automatizācija

— Nepietiekama pārstāvība lietderības funkcijas noteikšanā

— procesi, kas dod priekšroku vairākumam/mazākumam

— kultūras aizspriedumi mērķa funkcijā (vislabākais indivīdiem salīdzinājumā ar labāko grupai)

  • Kā mēs zinām, kas ir pareizi?

— nevienlīdzības pastiprināšana (grupas vairāk ietekmē AI izmantošana)

— Prognozējošā policijas darbība ir negatīvāk ietekmēta

— Plaši izplatīta kopbraukšanas/pašbraucošo automobiļu utt. var mainīt politikas, kas ietekmē iedzīvotājus atkarībā no lietošanas

#2: Statistikas un skaitļošanas novirzes

  • Kurš tiek skaitīts un kurš netiek skaitīts?

— Izlases un atlases novirze

— Izmantojot starpniekservera mainīgos, jo tos ir vieglāk izmērīt

— Automatizācijas novirze

— Likerta skala (no kategorijas no kārtas līdz kardinālam)

— Nelineārs vs lineārs

— Ekoloģiskā maldība

— L1 pret L2 normas samazināšana līdz minimumam

— Vispārējas grūtības kvantitatīvi noteikt kontekstuālas parādības

  • Kā mēs zinām, kas ir pareizi?

— atbilstošas ​​savstarpējās apstiprināšanas trūkums

— izdzīvošanas neobjektivitāte

— Grūtības ar godīgumu

#3: cilvēka aizspriedumi

  • Kurš tiek skaitīts un kurš netiek skaitīts?

— Novērošanas novirze (ielas gaismas efekts)

— pieejamības novirze (noenkurošana)

— Maknamara maldība

— Grupu domāšana noved pie šaurām izvēlēm

— Rashomon efekts noved pie subjektīvas aizstāvības

— Grūtības kvantitatīvi noteikt mērķus var izraisīt McNamara kļūdas

  • Kā mēs zinām, kas ir pareizi?

— Apstiprinājuma neobjektivitāte

— Automatizācijas novirze

Šajā svarīgās diskusijas posmā es varu derēt, ka jūs vēlaties dažus ilustratīvus piemērus, kas varētu parādīt trīs AI novirzes. Ir īpašs un noteikti populārs piemēru kopums, kas man ir tuvs. Redziet, manā kā MI ekspertam, tostarp ētiskajām un juridiskajām sekām, man bieži tiek lūgts identificēt reālistiskus piemērus, kas parāda AI ētikas dilemmas, lai varētu vieglāk uztvert tēmas nedaudz teorētisko raksturu. Viena no visspilgtākajām jomām, kas spilgti atspoguļo šo ētisko AI problēmu, ir uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās. Tas kalpos kā ērts lietošanas gadījums vai paraugs plašai diskusijai par šo tēmu.

Šeit ir viens ievērības cienīgs jautājums, par kuru ir vērts padomāt: Vai uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās kaut ko izgaismo par trim ierosinātajām AI novirzēm, un, ja jā, ko tas parāda?

Ļaujiet man kādu brīdi izpakot jautājumu.

Pirmkārt, ņemiet vērā, ka īstā pašbraucošā automašīnā nav cilvēka vadītāja. Ņemiet vērā, ka patiesas pašbraucošas automašīnas tiek vadītas, izmantojot AI braukšanas sistēmu. Nav nepieciešams cilvēks pie stūres, kā arī nav paredzēts, ka cilvēks varētu vadīt transportlīdzekli. Manu plašo un pastāvīgo informāciju par autonomajiem transportlīdzekļiem (AV) un īpaši pašbraucošām automašīnām sk. saite šeit.

Es vēlētos vēl vairāk precizēt, kas ir domāts, runājot par patiesām pašbraucošām automašīnām.

Izpratne par pašbraucošo automašīnu līmeņiem

Paskaidrosim, ka patiesas pašbraucošas automašīnas ir tās, kurās mākslīgais intelekts vada automašīnu pilnībā un braukšanas uzdevuma laikā netiek sniegta cilvēka palīdzība.

Šie bezvadītāja transportlīdzekļi tiek uzskatīti par 4. un 5. līmeni (skatiet manu skaidrojumu vietnē šī saite šeit), savukārt automašīna, kuras vadītājam ir jādalās braukšanas piepūlē, parasti tiek uzskatīta par 2. vai 3. līmeni. Automašīnas, kas kopīgi veic vadīšanas uzdevumu, ir aprakstītas kā daļēji autonomas, un parasti tajās ir dažādas automatizēti papildinājumi, kas tiek saukti par ADAS (Advanced Driver-Assistance Systems).

Pagaidām vēl nav īstas pašbraucošas automašīnas 5. līmenī, un mēs vēl pat nezinām, vai to būs iespējams sasniegt, kā arī to, cik ilgs laiks būs nepieciešams, lai līdz tam nokļūtu.

Tikmēr 4. līmeņa centieni pakāpeniski mēģina iegūt zināmu saķeri, veicot ļoti šauru un selektīvu koplietošanas ceļu izmēģinājumus, lai gan pastāv strīdi par to, vai šī pārbaude ir jāatļauj per se (mēs visi esam dzīvības vai nāves jūrascūciņas eksperimentā kas notiek uz mūsu lielceļiem un blakusceļiem, daži apgalvo, skatiet manu pārklājumu vietnē šī saite šeit).

Tā kā pusautomātiskajām automašīnām ir nepieciešams autovadītājs, kas izmanto cilvēku, šāda veida automašīnas pieņemšana ievērojami neatšķirsies no parastā transporta līdzekļa vadīšanas, tāpēc per se nav daudz jaunu, lai par tām runātu par šo tēmu (lai gan, kā redzēsit pēc brīža nākamie punkti parasti ir piemērojami).

Pusautonomām automašīnām ir svarīgi, lai sabiedrība tiktu brīdināta par satraucošu aspektu, kas rodas pēdējā laikā, proti, ka, neskatoties uz tiem autovadītājiem, kas turpina publicēt video, kā viņi aizmiguši pie 2. vai 3. līmeņa automašīnas stūres , mums visiem jāizvairās no maldināšanas, uzskatot, ka vadītājs, vadot daļēji autonomu automašīnu, var novērst uzmanību no braukšanas uzdevuma.

Jūs esat atbildīgā persona par transportlīdzekļa vadīšanas darbībām neatkarīgi no tā, cik daudz automatizācijas var iemest 2. vai 3. līmenī.

Pašbraucošas automašīnas un AI novirzes

4. un 5. līmeņa īstiem pašpiedziņas transportlīdzekļiem braukšanas uzdevumā nebūs iesaistīts autovadītājs.

Visi pasažieri būs pasažieri.

AI veic braukšanu.

Viens aspekts, kas nekavējoties jāapspriež, ietver faktu, ka AI, kas iesaistīts mūsdienu AI braukšanas sistēmās, nav jūtīgs. Citiem vārdiem sakot, AI kopumā ir datorizētas programmēšanas un algoritmu kolektīvs, un, protams, tas nespēj spriest tāpat kā cilvēki.

Kāpēc šis papildu uzsvars tiek likts uz to, ka AI nav jūtīgs?

Tā kā es gribu pasvītrot, ka, apspriežot AI braukšanas sistēmas lomu, es nepiešķiru AI cilvēka īpašības. Lūdzu, ņemiet vērā, ka mūsdienās pastāv un ir bīstama tendence antropomorfizēt AI. Būtībā cilvēki piešķir mūsdienu cilvēka intelektu mūsdienu AI, neskatoties uz nenoliedzamu un neapstrīdamu faktu, ka šāda AI vēl nav.

Izmantojot šo precizējumu, jūs varat iedomāties, ka AI braukšanas sistēma dabiski kaut kā “nezinās” par braukšanas aspektiem. Braukšana un viss, kas ar to saistīts, būs jāprogrammē kā daļa no pašpiedziņas automašīnas aparatūras un programmatūras.

Iegremdēsimies neskaitāmos aspektos, kas nāk par šo tēmu.

Pirmkārt, ir svarīgi saprast, ka ne visas AI pašbraucošās automašīnas ir vienādas. Katrs autoražotājs un pašpiedziņas tehnoloģiju uzņēmums izmanto savu pieeju, lai izstrādātu pašbraucošas automašīnas. Tādējādi ir grūti sniegt visaptverošus paziņojumus par to, ko AI vadīšanas sistēmas darīs vai nedarīs.

Turklāt ikreiz, kad tiek apgalvots, ka AI vadīšanas sistēma nedara kādu konkrētu lietu, to vēlāk var apsteigt izstrādātāji, kuri faktiski programmē datoru, lai to izdarītu. Soli pa solim AI braukšanas sistēmas tiek pakāpeniski uzlabotas un paplašinātas. Esošais ierobežojums šodien, iespējams, vairs nepastāvēs turpmākajā sistēmas iterācijā vai versijā.

Es ticu, ka tas sniedz pietiekamu iebildumu litāniju, lai pamatotu to, ko es drīzumā stāstu.

Tagad esam gatavi dziļi izpētīt pašbraucošās automašīnas un ētiskās AI iespējas, kas ietver trīs MI novirzes.

Iedomājieties, ka uz AI balstīta pašbraucoša automašīna atrodas jūsu apkārtnes ielās un šķiet, ka tā brauc droši. Sākumā jūs bijāt īpašu uzmanību veltījis katrai reizei, kad izdevās acīs redzēt pašbraucošo automašīnu. Autonomais transportlīdzeklis izcēlās ar savu elektronisko sensoru plauktu, kas ietvēra videokameras, radara blokus, LIDAR ierīces un tamlīdzīgus elementus. Pēc daudzām nedēļām, kad pašpiedziņas auto braukāja pa jūsu kopienu, jūs to tik tikko pamanāt. Ciktāl jums tas attiecas, tā ir tikai vēl viena automašīna uz jau tā noslogotajiem koplietošanas ceļiem.

Lai jums nešķiet, ka ir neiespējami vai neticami iepazīties ar pašbraucošo automašīnu redzēšanu, esmu bieži rakstījis par to, kā vietas, kas ir pašbraucošo automašīnu izmēģinājumu ietvaros, pamazām ir pieradušas redzēt izsmalcinātus transportlīdzekļus, skatiet manu analīzi vietnē šī saite šeit. Daudzi vietējie iedzīvotāji galu galā pārgāja no aizrautīgās raudāšanas uz muti, bet tagad izstaro plašu garlaicības žāvas sajūtu, lai redzētu šīs līkumotās pašbraucošās automašīnas.

Iespējams, šobrīd galvenais iemesls, kāpēc viņi varētu pamanīt autonomos transportlīdzekļus, ir kairinājuma un sašutuma faktors. Pašreizējās AI braukšanas sistēmas nodrošina, ka automašīnas ievēro visus ātruma ierobežojumus un ceļu satiksmes noteikumus. Tradicionālie cilvēku vadītie autovadītāji, kuri brauc ar savām tradicionālajām cilvēku vadītajām automašīnām, dažkārt ir sašutuši, kad ir iestrēguši aiz strikti likumpaklausīgām AI pašbraucošām automašīnām.

Tas ir kaut kas, kas mums visiem, iespējams, ir jāpierod, pareizi vai nepareizi.

Atpakaļ pie mūsu pasakas.

Tālāk mēs apsvērsim, kā šajā pašpiedziņas automašīnu kontekstā varētu parādīties sistēmiskas novirzes.

Daži eksperti ir ļoti noraizējušies par to, ka pašpiedziņas automašīnas būs tikai turīgo un elites province. Iespējams, ka pašpiedziņas automašīnu izmantošanas izmaksas būs pārmērīgi dārgas. Ja vien jums nav lielas naudas, jūs, iespējams, nekad neredzēsit pašbraucošas automašīnas iekšpusi. Tiek apgalvots, ka tiem, kas izmantos pašpiedziņas automašīnas, būs jābūt bagātiem.

Tādējādi daži satraucoši mudina, ka uz AI balstītu pašbraucošu automašīnu parādīšanos izplatīs sistēmiskas novirzes. Kopējā autonomā transportlīdzekļu industriālā sistēma kopumā atturēs pašbraucošas automašīnas no nabadzīgo vai mazāk pārtikušo cilvēku rokās. Tas var nebūt noticis ar atklātu nolūku, un vienkārši izrādās, ka vienīgais uzskatītais veids, kā atgūt apgrūtinošās izmaksas, kas saistītas ar pašpiedziņas automašīnu izgudrošanu, būs iekasēt nežēlīgi augstas cenas.

Ja jūs atcirtat, ka šodien ir šie pašbraucošo automašīnu izmēģinājumi, kas ļauj ikdienas cilvēkam izmantot, tāpēc šķiet acīmredzami, ka jums nav jābūt bagātam pašam par sevi, pretarguments ir tāds, ka šī ir sava veida čaulas spēle. tas bija. Tiek uzskatīts, ka autoražotāji un pašpiedziņas tehnoloģiju uzņēmumi ir gatavi likt domāt, ka izmaksas nebūs būtisks šķērslis. Šobrīd viņi to dara sabiedrisko attiecību nolūkos un paaugstinās cenas, tiklīdz būs noskaidrojušas grumbas. Sazvērnieks pat varētu apgalvot, ka “jūrascūciņas” kā ikdienišķas personas tiek kaitīgi izmantotas, lai bagātnieki galu galā kļūtu bagātāki.

Tāpēc, ņemot vērā šo diezgan strīdīgo jautājumu un liekot savus divus centus par šo slikto tēmu, es neticu, ka ikdienas lietošanai pašbraucošās automašīnas būs dārgākas. Es šeit neiedziļināšos detaļās par savu pamatojumu šādai prasībai un aicinu jūs skatīt manas apdomīgās diskusijas vietnē saite šeit un arī plkst saite šeit.

Tālāk mēs varam apsvērt ar AI saistītos statistikas un skaitļošanas novirzes.

Apdomājiet šķietami nenozīmīgo jautājumu par to, kur viesabonēs pašpiedziņas automašīnas, lai uzņemtu pasažierus. Šķiet, ka šī tēma ir ļoti nekaitīga. Mēs izmantosim stāstu par pilsētu vai pilsētu, kurā ir pašbraucošas automašīnas, lai izceltu, iespējams, pārsteidzoši potenciālo ar AI saistīto statistikas un skaitļošanas novirzes.

Sākumā pieņemsim, ka mākslīgais intelekts klejoja pašbraucošās automašīnas visā pilsētā. Ikvienam, kurš vēlējās pieprasīt braucienu ar pašpiedziņas automašīnu, būtībā bija vienādas iespējas to saņemt. Pakāpeniski mākslīgais intelekts sāka galvenokārt nodrošināt pašbraucošo automašīnu viesabonēšanu tikai vienā pilsētas daļā. Šī sadaļa bija lielāka naudas pelnītāja, un AI sistēma tika ieprogrammēta, lai mēģinātu palielināt ieņēmumus kā daļu no izmantošanas sabiedrībā.

Pilsētas nabadzīgajās daļās kopienas locekļiem bija mazāka iespēja braukt ar pašbraucošu automašīnu. Tas bija tāpēc, ka pašbraucošās automašīnas atradās tālāk un viesabonēja apgabalā ar lielāku ieņēmumu daļu. Ja pieprasījums tiek saņemts no attālas pilsētas daļas, jebkuram pieprasījumam no tuvākas vietas, kas, iespējams, atrodas “cienījamā” pilsētas daļā, tiks piešķirta augstāka prioritāte. Galu galā pašpiedziņas automašīnas iegūšana jebkurā vietā, izņemot pilsētas bagātāko daļu, bija gandrīz neiespējama, un tas bija satraucoši tiem, kas dzīvoja apgabalos, kuros tagad trūkst resursu.

Jūs varētu apgalvot, ka mākslīgais intelekts diezgan lielā mērā ir nonācis statistikas un skaitļošanas neobjektivitātes dēļ, kas ir līdzīgs starpnieka diskriminācijas formai (ko bieži dēvē arī par netiešo diskrimināciju). AI nebija ieprogrammēts, lai izvairītos no šiem nabadzīgākajiem rajoniem. Tā vietā tas “iemācījās” to darīt, izmantojot ML/DL.

Tika pieņemts, ka mākslīgais intelekts nekad neiekritīs šādās apkaunojošās smiltīs. Netika izveidota nekāda specializēta uzraudzība, lai izsekotu uz AI balstītās pašbraucošās automašīnas. Tikai pēc tam, kad sabiedrības locekļi sāka sūdzēties, pilsētas vadītāji saprata, kas notiek. Lai uzzinātu vairāk par šāda veida pilsētas mēroga problēmām, ar kurām tiks iepazīstināti autonomie transportlīdzekļi un pašbraucošās automašīnas, skatiet manu informāciju vietnē šī saite šeit un kurā ir aprakstīts Hārvardas vadītais pētījums, ko es biju līdzautors par šo tēmu.

Attiecībā uz trešo cilvēku aizspriedumu kategoriju, kas saistīta ar AI aizspriedumiem, mēs pievēršamies piemēram, kurā AI nosaka, vai apstāties, lai gaidītu gājējus, kuriem nav tiesību šķērsot ielu.

Jūs, bez šaubām, esat braucis un sastapies ar gājējiem, kuri gaidīja, lai šķērsotu ielu, taču viņiem nebija priekšroka to darīt. Tas nozīmēja, ka jums bija iespēja izvēlēties, vai apstāties un ļaut viņiem šķērsot. Jūs varētu turpināt, neļaujot viņiem šķērsot, un joprojām pilnībā ievērot likumīgos braukšanas noteikumus.

Pētījumi par to, kā autovadītāji izlemj apstāties vai neapstāties šādiem gājējiem, liecina, ka dažreiz autovadītāji izvēlas, pamatojoties uz nevēlamiem aizspriedumiem. Cilvēka vadītājs var paskatīties uz gājēju un izvēlēties neapstāties, pat ja viņš būtu apstājies, ja gājējam būtu bijis atšķirīgs izskats, piemēram, rases vai dzimuma dēļ. Esmu to izskatījis plkst saite šeit.

Iedomājieties, ka uz mākslīgā intelekta balstītas pašbraucošās automašīnas ir ieprogrammētas, lai risinātu jautājumu par to, vai apstāties vai neapstāties gājējiem, kuriem nav priekšroka. Lūk, kā AI izstrādātāji nolēma ieprogrammēt šo uzdevumu. Viņi apkopoja datus no pilsētas videokamerām, kas ir izvietotas visā pilsētā. Dati parāda cilvēku vadītājus, kuri apstājas gājējiem, kuriem nav priekšnoteikuma, un cilvēku vadītājus, kuri neapstājas. Tas viss ir apkopots lielā datu kopā.

Izmantojot mašīnmācīšanos un dziļo apmācību, dati tiek modelēti skaitļošanas veidā. AI braukšanas sistēma pēc tam izmanto šo modeli, lai izlemtu, kad apstāties vai neapstāties. Parasti ideja ir tāda, ka neatkarīgi no vietējās paražas, mākslīgais intelekts tieši šādi virza pašbraucošo automašīnu.

Par pārsteigumu pilsētas vadītājiem un iedzīvotājiem, AI acīmredzami izvēlējās apstāties vai neapstāties, pamatojoties uz gājēja vecumu. Kā tas varēja notikt?

Sīkāk apskatot video, kurā redzams cilvēka vadītāja rīcības brīvība, atklājas, ka daudzi neapstāšanās gadījumi bija saistīti ar gājējiem, kuriem bija vecāka gadagājuma pilsoņa spieķis. Šķietami, ka autovadītāji nevēlējās apstāties un ļaut vecam cilvēkam šķērsot ielu, iespējams, tāpēc, ka kāds varētu būt nepieciešams braucienam. Ja gājējs izskatījās, ka var ātri pārskriet pāri ielai un samazināt vadītāja gaidīšanas laiku, autovadītāji labprātāk ļāva cilvēku šķērsot.

Tas tika dziļi aprakts AI braukšanas sistēmā. Pašbraucošās automašīnas sensori skenētu gaidošo gājēju, ievadītu šos datus ML/DL modelī, un modelis raidītu AI, vai apstāties vai turpināt. Jebkādas vizuālas norādes, ka gājējs varētu būt lēni šķērsojamas, piemēram, spieķa izmantošana, matemātiski tika izmantotas, lai noteiktu, vai AI braukšanas sistēmai vajadzētu ļaut gaidītajam gājējam šķērsot vai nē.

Varētu apgalvot, ka tā bija paļaušanās uz jau pastāvošu cilvēku aizspriedumiem.

Secinājumi

Pagaidām dažas pēdējās domas.

Ir populārs teiciens, ka jūs nevarat mainīt izdalītās kārtis, un tā vietā jāiemācās adekvāti spēlēt ar jebkuru jums piešķirto kombināciju.

Attiecībā uz AI aizspriedumiem, ja mēs dedzīgi neuzsāksim AI ētikas iedibināšanu visās jomās un īpaši nenostiprināsim AI aizspriedumu raksturojumu, rokas, ar kurām mēs saskarsimies, būs pārpildītas ar neētiskām, un, iespējams, nelikumīgs slānis. Vispirms mums ir jāpārtrauc šo kāršu izdalīšana. Drošsirdīgais mērķis izveidot un izplatīt ētiskos mākslīgā intelekta standartus ir būtisks instruments, lai cīnītos ar gaidāmo cunami. AI For Bad.

Varat droši apgalvot, ka niknais AI aizspriedums un neētiskais AI būs kā vājš kāršu namiņš, kas sabruks pats un, iespējams, būs postošs mums visiem.

Spēlēsim, lai uzvarētu, darot to ar atbilstoši ētisku AI.

Avots: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ai-biases/