Atbildīga AI bauda ievērojamu pieaugumu, izmantojot augstākās profesionālās sabiedrības ACM paziņojumu par AI ētiku

Vai redzējāt vai dzirdējāt ziņas?

Vēl viens AI ētikas priekšrakstu kopums ir nesen pasludināts.

Aplausi, ja vēlaties.

Tad atkal, jūs varētu nav ir to pamanījuši tāpēc, ka jau kādu laiku ir izplatīti tik daudzi citi AI ētikas dekrēti. Daži saka, ka šķietami nepārtraukta ētiskā AI paziņojumu izplatīšanās kļūst mazliet sastindzis. Cik mums vajag? Vai kāds var viņiem visiem sekot līdzi? Kurš no tiem ir labākais? Vai mēs, iespējams, pārkāpjam AI ētikas principus? Un tā tālāk.

Šajā konkrētajā gadījumā es saku, ka mums vajadzētu īpaši atzinīgi novērtēt šo jaunāko kluba papildinājumu.

Pēc brīža es saprātīgi paskaidrošu, kāpēc.

Pirmkārt, precizējumam es atsaucos uz AI ētikas priekšrakstu, kas tagad oficiāli pazīstams kā "Paziņojums par atbildīgu algoritmisko sistēmu principiem” kuru nesen publicēja ACM Tehnoloģiju politikas padome, 26. gada 2022. oktobrī. Jāuzslavē ekspertu komandas, kas izveidoja šo vērtīgo dokumentu, tostarp līdzautori Žanna Metjūsa (Klarksonas universitāte) un Rikardo Baeza-Jatess (Universitat Pompeu Fabra) ).

Tie, kas zina, pēc rūpīgas pārbaudes var saprast, ka šis dokuments šķiet vāji pazīstams.

Laba acs!

Šis jaunākais iemiesojums būtībā ir atjaunināts un paplašināts variants iepriekšējam kopīgajam “Paziņojumam par algoritmisko pārredzamību un atbildību”, ko ACM ASV Tehnoloģiju politikas komiteja un ACM Eiropas Tehnoloģiju politikas komiteja izsludināja 2017. gadā. Uzticīgie manu sleju lasītāji varētu atcerēties, ka Laiku pa laikam savā slejā esmu pieminējis 2017. gada dekrētu par galvenajiem aspektiem, kas ir AI ētikas un AI likuma pamatā.

Manu plašo un pastāvīgo AI ētikas un mākslīgā intelekta tiesību aktu novērtējumu un tendenču analīzi skatiet saite šeit un saite šeit, tikai nosaukt dažus.

Šis jaunākais ACM paziņojums ir īpaši svarīgs vairāku svarīgu iemeslu dēļ.

Lūk, kāpēc.

ACM, kas ir ērts akronīms vārdam Datoru iekārtu asociācija, tiek uzskatīta par pasaulē lielāko uz skaitļošanu vērstu asociāciju. ACM, kurā ir aptuveni 110,000 1947 dalībnieku, ir ilggadējs pionieris skaitļošanas jomā. ACM veic dažus no augstākajiem zinātniskajiem pētījumiem skaitļošanas jomā, kā arī nodrošina profesionālu tīklu izveidi un aicina arī skaitļošanas speciālistus. Kā tāds ACM ir svarīga balss, kas parasti pārstāv augsto tehnoloģiju balsis un ir pastāvīgi centusies attīstīt datoru jomu (ACM tika dibināta XNUMX. gadā).

Es varētu pievienot arī nelielu personisku piezīmi par šo. Kad vidusskolā es pirmo reizi apguvu datorus, es pievienojos ACM un piedalījos viņu izglītības programmās, īpaši aizraujošā iespēja sacensties viņu ikgadējā datorprogrammēšanas konkursā (šādas sacensības mūsdienās ir plaši izplatītas un parasti tiek apzīmētas kā hackathons). Es joprojām esmu iesaistīts ACM, kamēr mācījos koledžā, izmantojot vietējās universitātes nodaļu, un man bija iespēja uzzināt par vadību, kļūstot par studentu nodaļas virsnieku. Stājoties nozarē, es pievienojos profesionālajai nodaļai un atkal uzņēmos vadošo lomu. Vēlāk pēc tam, kad es kļuvu par profesoru, es strādāju ACM komitejās un redkolēģijās, kā arī sponsorēju universitātes studentu nodaļu. Pat vēl šodien esmu aktīvs ACM, tostarp strādāju ACM ASV Tehnoloģiju politikas komitejā.

Man patīk ACM pievilcīgais un noturīgais redzējums par mūžizglītību un karjeras attīstību.

Jebkurā gadījumā, runājot par jaunāko AI ētikas paziņojumu, faktam, ka to ir izdevusi ACM, ir liela nozīme. Jūs varētu pamatoti apgalvot, ka ētiskie AI priekšraksti ir vispasaules skaitļošanas profesionāļu grupas kopums vai kolektīva balss. Tas tur kaut ko saka.

Ir arī tāds aspekts, ka citi datoru jomā būs iedvesmoti atdzīvoties un ieklausīties tādā nozīmē, ka pienācīgi ņem vērā to, ko paziņojumā paziņojuši viņu kolēģi skaitļošanas jomā. Tādējādi pat tiem, kas nav ACM vai neko nezina par cienījamo grupu, cerams, ka būs liela interese uzzināt, par ko ir teikts.

Tikmēr tie, kas ir ārpus skaitļošanas jomas pārstāvi varētu piesaistīt apgalvojumam kā sava veida aizkulišu ieskatam par to, ko datoru lietotāji saka par ētisko AI. Tomēr es vēlos uzsvērt, ka paziņojums ir paredzēts ikvienam, ne tikai datoru kopienai, un tāpēc paturiet prātā, ka mākslīgā intelekta ētikas priekšraksti ir it kā vispārēji.

Visbeidzot, ir pievienots vērpjot, ka daži varētu apsvērt.

Dažreiz nepiederošie uztver skaitļošanas asociācijas kā tehnoloģijas, kas ir līdz ceļiem, un tās īpaši neapzinās datoru un AI ietekmi uz sabiedrību. Jums varētu rasties kārdinājums pieņemt, ka šādām profesionālajām struktūrām rūp tikai jaunākie un karstākie sasniegumi aparatūras vai programmatūras jomā. Sabiedrība viņus uztver kā techie nerds, vienkārši izteikti rupji.

Lai labotu rekordu, es esmu iegrimis skaitļošanas sociālajā iespaidā, kopš pirmo reizi iepazinos ar datoriem, un arī ACM ir nopietni iesaistījies šādās tēmās.

Ikvienam, kurš ir pārsteigts, ka šo paziņojumu par AI ētikas priekšrakstiem ir apkopojis un izlaidis ACM, viņi nepievērš uzmanību ilgstošajiem pētījumiem un darbam, kas notiek šajos jautājumos. Es arī aicinātu interesentus rūpīgi apskatīt ACM Ētikas kodekss, strikts profesionālās ētikas kodekss, kas ir attīstījies gadu gaitā un uzsver, ka sistēmu izstrādātājiem ir jāapzinās, jāievēro un jābūt modriem par savu centienu un preču ētiskajām sekām.

AI ir dedzinājusi uguni, kļūstot informēta par skaitļošanas ētiku.

Ētisko un juridisko apsvērumu redzamība skaitļošanas jomā ir ārkārtīgi palielinājusies līdz ar mūsdienu AI parādīšanos. Profesionālie tiek informēti un dažkārt tiek mudināti par pienācīgas uzmanības pievēršanu mākslīgā intelekta ētikas un AI tiesību jautājumiem. Likumdevēji arvien vairāk apzinās AI ētikas un AI likumu aspektus. Uzņēmumi apzinās, ka mākslīgais intelekts, ko tie izstrādā vai izmanto, ir izdevīgs, taču reizēm arī paver milzīgus riskus un potenciālus negatīvus aspektus.

Atklāsim to, kas ir noticis pēdējos gados, lai varētu izveidot atbilstošu kontekstu, pirms sākam pievērsties šim jaunākajam AI ētikas priekšrakstu kopumam.

Pieaugošā izpratne par ētisko AI

Nesenais AI laikmets sākotnēji tika uzskatīts par tādu AI uz labu, kas nozīmē, ka mēs varētu izmantot AI cilvēces uzlabošanai. Uz papēžiem AI uz labu nāca atziņa, ka arī mēs esam iegrimuši AI For Bad. Tas ietver AI, kas ir izdomāts vai pašpārveidots, lai būtu diskriminējošs un kas veic skaitļošanas izvēles, radot nepamatotas novirzes. Dažreiz mākslīgais intelekts tiek veidots šādā veidā, savukārt citos gadījumos tas novirzās uz šo nevēlamo teritoriju.

Es vēlos būt pilnīgi pārliecināts, ka mēs esam vienā pusē attiecībā uz mūsdienu AI būtību.

Mūsdienās nav AI, kas būtu jūtīgs. Mums šī nav. Mēs nezinām, vai jutīgais AI būs iespējams. Neviens nevar precīzi paredzēt, vai mēs sasniegsim jutīgu AI, kā arī to, vai jutīgs AI kaut kā brīnumaini spontāni radīsies skaitļošanas kognitīvās supernovas veidā (parasti saukta par singularitāti, skatiet manu pārklājumu vietnē saite šeit).

AI veids, uz kuru es koncentrējos, sastāv no nejūtošā AI, kas mums ir šodien. Ja mēs vēlamies mežonīgi spekulēt par jutīgu AI, šī diskusija varētu virzīties radikāli citā virzienā. Domājams AI būtu cilvēka kvalitātes. Jums jāņem vērā, ka jutīgais AI ir cilvēka kognitīvs ekvivalents. Vēl jo vairāk, tā kā daži uzskata, ka mums varētu būt superinteliģents AI, iespējams, ka šāds AI varētu būt gudrāks par cilvēkiem (manu superinteliģentā AI kā iespēju izpēti sk. pārklājums šeit).

Es stingri ieteiktu mums paturēt lietas piezemētas un apsvērt mūsdienu skaitļošanas nejūtīgo AI.

Saprotiet, ka mūsdienu mākslīgais intelekts nespēj “domāt” tādā pašā veidā kā cilvēka domāšana. Mijiedarbojoties ar Alexa vai Siri, sarunu spējas var šķist līdzīgas cilvēka spējām, taču patiesībā tās ir skaitļošanas iespējas un tām trūkst cilvēka izziņas. Jaunākajā AI laikmetā ir plaši izmantota mašīnmācīšanās (ML) un dziļā mācīšanās (DL), kas izmanto skaitļošanas modeļu saskaņošanu. Tas ir novedis pie AI sistēmām, kas izskatās pēc cilvēkiem līdzīgas tieksmes. Tikmēr mūsdienās nav neviena mākslīgā intelekta, kam būtu veselais saprāts un arī cilvēka spēcīgas domāšanas izziņas brīnums.

Esiet ļoti uzmanīgs, antropomorfizējot mūsdienu AI.

ML/DL ir skaitļošanas modeļu saskaņošanas veids. Parastā pieeja ir tāda, ka jūs apkopojat datus par lēmumu pieņemšanas uzdevumu. Jūs ievadāt datus ML/DL datoru modeļos. Šie modeļi cenšas atrast matemātiskos modeļus. Pēc šādu modeļu atrašanas, ja tādi tiek atrasti, AI sistēma izmantos šos modeļus, sastopoties ar jauniem datiem. Uzrādot jaunus datus, pašreizējā lēmuma pieņemšanai tiek piemēroti modeļi, kuru pamatā ir “vecie” vai vēsturiskie dati.

Es domāju, ka jūs varat uzminēt, kurp tas virzās. Ja cilvēki, kas ir pieņēmuši pieņemtus lēmumus, ir iekļāvuši nevēlamus aizspriedumus, pastāv iespēja, ka dati to atspoguļo smalki, bet nozīmīgi. Mašīnmācīšanās vai dziļās mācīšanās skaitļošanas modeļu saskaņošana vienkārši mēģinās attiecīgi matemātiski atdarināt datus. AI radītajā modelēšanā per se nešķiet veselais saprāts vai citi jūtīgi aspekti.

Turklāt AI izstrādātāji, iespējams, arī neapzinās, kas notiek. Arkāniskā matemātika ML/DL var apgrūtināt tagad slēpto aizspriedumu novēršanu. Jūs pamatoti cerat un gaidāt, ka AI izstrādātāji pārbaudīs potenciāli apraktos aizspriedumus, lai gan tas ir sarežģītāk, nekā varētu šķist. Pastāv liela iespēja, ka pat ar salīdzinoši plašu testēšanu ML/DL modeļu atbilstības modeļos joprojām būs novirzes.

Jūs varētu mazliet izmantot slaveno vai bēdīgi slaveno sakāmvārdu par atkritumu savākšanu. Lieta ir tāda, ka tas vairāk līdzinās aizspriedumiem, kas mānīgi tiek iepludināti, AI iegremdējot aizspriedumus. AI lēmumu pieņemšanas algoritms (ADM) aksiomātiski kļūst piekrauts ar nevienlīdzību.

Nav labi.

Tam visam ir īpaši nozīmīgas AI ētikas sekas, un tas piedāvā ērtu logu gūtajām mācībām (pat pirms visu mācību stundu veikšanas), kad runa ir par AI tiesību aktu pieņemšanu.

Papildus AI ētikas priekšrakstu izmantošanai kopumā ir attiecīgs jautājums par to, vai mums vajadzētu pieņemt likumus, kas regulētu dažādus AI lietojumus. Federālā, štata un vietējā līmenī tiek pieņemti jauni likumi, kas attiecas uz AI izstrādes diapazonu un raksturu. Centieni izstrādāt un pieņemt šādus likumus notiek pakāpeniski. AI ētika kalpo vismaz kā pārdomāts pārtraukums, un gandrīz noteikti zināmā mērā tiks tieši iekļauts šajos jaunajos likumos.

Ņemiet vērā, ka daži nelokāmi apgalvo, ka mums nav vajadzīgi jauni likumi, kas aptver AI, un ka mūsu esošie likumi ir pietiekami. Viņi brīdina, ka, ja mēs ieviesīsim dažus no šiem AI likumiem, mēs nogalināsim zelta zosu, ierobežojot AI progresu, kas sniedz milzīgas sabiedrības priekšrocības.

Iepriekšējās slejās esmu apskatījis dažādus valsts un starptautiskos centienus izstrādāt un ieviest likumus, kas regulē AI, sk. saite šeit, piemēram. Esmu apskatījis arī dažādus mākslīgā intelekta ētikas principus un vadlīnijas, ko ir noteikušas un pieņēmušas dažādas valstis, tostarp, piemēram, Apvienoto Nāciju Organizācijas centienus, piemēram, UNESCO AI ētikas kopumu, ko pieņēma gandrīz 200 valstis, sk. saite šeit.

Šeit ir noderīgs ētisko AI kritēriju vai raksturlielumu saraksts attiecībā uz AI sistēmām, kuras esmu iepriekš rūpīgi izpētījis.

  • Caurspīdīgums
  • Taisnīgums un godīgums
  • Ne-ļaunprātība
  • atbildība
  • Privātums
  • Labums
  • Brīvība un autonomija
  • Uzticēties
  • Ilgtspējība
  • cieņa
  • Solidaritāte

Šie AI ētikas principi ir nopietni jāizmanto AI izstrādātājiem, kā arī tie, kas pārvalda AI izstrādes centienus, un pat tie, kas galu galā veic AI sistēmu apkopi un uzturēšanu.

Visas ieinteresētās puses visā AI izstrādes un lietošanas dzīves ciklā tiek uzskatītas par ētiskā AI noteikto normu ievērošanu. Tas ir svarīgs akcents, jo parasti tiek pieņemts, ka “tikai kodētāji” vai tie, kas programmē AI, ir pakļauti AI ētikas jēdzieniem. Kā jau iepriekš tika uzsvērts, ir nepieciešams ciemats, lai izstrādātu un ieviestu AI, un tam visam ciematam ir jābūt pieredzējušam un jāievēro AI ētikas priekšraksti.

Es arī nesen pārbaudīju AI tiesību akts kas ir oficiālais nosaukums ASV valdības oficiālajam dokumentam ar nosaukumu “AI Bill of Rights: Automated Systems Work for the American People”, kas ir Zinātnes un tehnoloģiju politikas biroja (OSTP) gadu ilgo darbu rezultāts. ). OSTP ir federāla vienība, kas kalpo, lai konsultētu Amerikas prezidentu un ASV izpildbiroju par dažādiem valsts nozīmes tehnoloģiskiem, zinātniskiem un inženiertehniskiem aspektiem. Šajā ziņā jūs varat teikt, ka šis AI tiesību akts ir dokuments, ko apstiprinājis un apstiprinājis esošais ASV Baltais nams.

AI tiesību aktā ir piecas galvenās kategorijas:

  • Drošas un efektīvas sistēmas
  • Algoritmiskā diskriminācijas aizsardzība
  • Datu privātums
  • Paziņojums un skaidrojums
  • Cilvēku alternatīvas, apsvērumi un atkāpšanās

Esmu rūpīgi pārskatījis šos priekšrakstus, skat saite šeit.

Tagad, kad esmu ielicis noderīgu pamatu šīm saistītajām AI ētikas un AI tiesību tēmām, mēs esam gatavi pāriet uz nesen izdoto ACM “Paziņojums par atbildīgu algoritmisko sistēmu principiem” (starp citu, jo dokumenta nosaukums attiecas uz atbildīgs algoritmiskās sistēmas, jūs varētu vēlēties apskatīt manu vērtējumu par to, ko nozīmē runāt Uzticams AISkatīt saite šeit).

Sagatavojieties ceļojumam uz šo jaunāko AI ētikas principu kopumu.

Uzmanīgi iedziļināties ACM deklarētajos AI ētikas priekšrakstos

ACM paziņojums par ētisko AI sastāv no šiem deviņiem stūrakmeņiem:

  • Leģitimitāte un kompetence
  • Kaitējuma samazināšana līdz minimumam
  • Drošība un privātums
  • Caurspīdīgums
  • Interpretējamība un izskaidrojamība
  • Uzturēšana
  • Apstrīdējamība un auditējamība
  • Atbildība un atbildība
  • Ietekmes uz vidi ierobežošana

Ja salīdzina šo jaunāko komplektu ar citiem īpaši pieejamiem komplektiem, starp tiem ir liela līdzība vai līdzīgas atbilstības.

No vienas puses, jūs varat to uztvert kā labu zīmi.

Mēs parasti varētu cerēt, ka AI ētikas principu virkne, kas svārstās apkārt, saplūst, lai sasniegtu to pašu vispārējo pārklājumu. Redzot, ka viens komplekts ir nedaudz salīdzināms ar citu komplektu, rodas šķietami pārliecība, ka šie komplekti atrodas vienā un tajā pašā laukumā, nevis kaut kādā veidā neizprotamā kreisajā laukā.

Daži potenciāli sūdzas par to, ka šīs dažādās kopas ir aptuveni vienādas, kas pēc tam, iespējams, rada apjukumu vai vismaz satraukumu, jo mums nevajadzētu būt daudziem šķietami dublējošiem sarakstiem. Vai nevar būt tikai viens saraksts? Protams, problēma ir tāda, ka nav vienkārša veida, kā panākt, lai visi šādi saraksti būtu vienādi. Dažādas grupas un dažādas vienības tam ir piegājušas dažādos veidos. Labā ziņa ir tā, ka viņi gandrīz visi ir nonākuši vienā un tajā pašā visaptverošajā secinājumā. Mēs varam būt atviegloti, ka komplektiem nav milzīgas atšķirības, kas, iespējams, mūs satrauktu, ja nebūtu vispārējas vienprātības.

Pretējs varētu mudināt, ka šo sarakstu kopīgums ir satraucošs, apgalvojot, ka, iespējams, notiek grupas domāšana. Varbūt visas šīs atšķirīgās grupas domā vienādi un nespēj skatīties tālāk par normu. Mēs visi iekrītam identiskās lamatās. Saraksti šķietami noenkuro mūsu domāšanu, un mēs nespējam redzēt tālāk par savu degunu.

Skatīšanās tālāk par mūsu degunu neapšaubāmi ir cienīgs iemesls.

Es noteikti esmu gatavs dzirdēt, ko saka pretrunātāji. Dažreiz viņi uztver kaut ko tādu, kam ir Titānisks dodoties uz milzu aisbergu. Mēs varētu izmantot dažus ērgļa acu skatus. Taču attiecībā uz šiem mākslīgā intelekta ētikas priekšrakstiem nav nekas nepārprotami no pretrunīgi formulētas, kas, šķiet, nepārprotami samazinātu vai radītu bažas par notiekošo nepamatotu kopību. Es domāju, ka mums iet labi.

Šajā ACM komplektā ir daži īpaši nozīmīgi vai izcili punkti, kas, manuprāt, ir īpaši ievērības cienīgi.

Pirmkārt, man patīk augstākā līmeņa formulējums, kas nedaudz atšķiras no parastā.

Piemēram, atsaucoties uz leģitimitāti un kompetenci (pirmais aizzīmētais vienums) liek domāt, ka ir svarīgas gan ar AI saistītās dizainera, gan vadības kompetences. Turklāt, leģitimitāti Šī frāze mūs ieved AI ētikā un AI tiesību joma. Es to saku tāpēc, ka daudzi mākslīgā intelekta ētikas priekšraksti gandrīz pilnībā koncentrējas uz ētiskām sekām, taču šķiet, ka tie neņem vērā arī juridiskās sekas. Juridiskajā jomā ētiskie apsvērumi bieži tiek reklamēti kā “nesaistošas ​​tiesības”, savukārt grāmatās ietvertie likumi tiek interpretēti kā “stingri likumi” (tas nozīmē, ka tiem ir juridisko tiesu nozīme).

Vienu no maniem visu laiku iecienītākajiem teicieniem izteica slavenais jurists Ērls Vorens: "Civilizētā dzīvē likums peld ētikas jūrā."

Mums ir jāpārliecinās, ka mākslīgā intelekta ētikas priekšraksti ietver un uzsver arī lietu stingro tiesību aspektu, piemēram, AI likumu izstrādi, pieņemšanu un izpildi.

Otrkārt, es novērtēju, ka sarakstā ir iekļauts apstrīdamība un auditējamība.

Esmu vairākkārt rakstījis par to, cik vērtīga ir iespēja piedalīties konkursā vai pacelt sarkano karogu, kad esat pakļauts AI sistēmai, sk. saite šeit. Turklāt mēs arvien biežāk redzēsim jaunus likumus, kas liek AI sistēmām veikt auditu, par ko es esmu ilgi runājis par Ņujorkas (NYC) likumu par audita aizspriedumiem AI sistēmās, ko izmanto darbinieku pieņemšanai darbā un paaugstināšanai, sk. saite šeit. Diemžēl un, kā es atklāti kritizēju NYC jauno likumu, ja šie auditējamības likumi ir kļūdaini, tie, iespējams, radīs vairāk problēmu nekā atrisinās.

Treškārt, notiek pakāpeniska atmoda, ka mākslīgais intelekts var radīt ilgtspējības problēmas, un es priecājos redzēt, ka vides tēma saņēma augstākā līmeņa rēķinu šajos AI ētikas priekšrakstos (skatiet saraksta pēdējo aizzīmi).

AI sistēmas izveide vien var patērēt daudz skaitļošanas resursu. Šie skaitļošanas resursi var tieši vai netieši būt ilgtspējības uzurpatori. Ir jāapsver kompromiss attiecībā uz priekšrocībām, ko AI sniedz, salīdzinot ar izmaksām, kas saistītas ar AI. Pēdējā no ACM aizzīmēm atzīmētajiem ilgtspējības un vides apsvērumiem, kas rodas saistībā ar AI. Lai iegūtu informāciju par ar AI saistītajām oglekļa pēdas problēmām, skatiet saite šeit.

Tagad, kad esam padziļināti apskatījuši ACM sarakstu ar AI ētikas priekšrakstiem, pēc tam mēs dziļāk ielaidām kāju pirkstus ūdeņos.

Šeit ir oficiālie apraksti katram augsta līmeņa AI ētikas priekšrakstam (citēts no oficiālā paziņojuma):

1. "Leģitimitāte un kompetence: Algoritmisko sistēmu izstrādātājiem ir jābūt pārvaldības kompetencēm un nepārprotamām pilnvarām šādu sistēmu izveidei un izvietošanai. Viņiem ir arī jābūt speciālām zināšanām lietojumu jomā, zinātniskam pamatojumam paredzēto sistēmu izmantošanai, un sistēmas ietekmētās ieinteresētās personas tos plaši uzskata par sociāli leģitīmām. Jāveic juridiskie un ētiskie novērtējumi, lai apstiprinātu, ka visi sistēmu radītie riski būs proporcionāli risināmajām problēmām un ka visas attiecīgās ieinteresētās personas saprot jebkādus ieguvumu un kaitējuma kompromisus.

2. "Kaitējuma samazināšana līdz minimumam: Algoritmisko sistēmu vadītājiem, dizaineriem, izstrādātājiem, lietotājiem un citām ieinteresētajām personām ir jāapzinās iespējamās kļūdas un novirzes, kas saistītas ar to izstrādi, ieviešanu un izmantošanu, kā arī iespējamais kaitējums, ko sistēma var nodarīt indivīdiem un sabiedrībai. Organizācijām regulāri jāveic ietekmes novērtējumi sistēmām, ko tās izmanto, lai noteiktu, vai sistēma var radīt kaitējumu, jo īpaši diskriminējošu kaitējumu, un piemērot atbilstošus mazināšanas pasākumus. Ja iespējams, viņiem būtu jāmācās no faktiskās darbības rādītājiem, nevis tikai no pagātnes lēmumu modeļiem, kas paši varētu būt bijuši diskriminējoši.

3. "Drošība un privātums: Ļaunprātīgu pušu radīto risku var mazināt, ieviešot drošības un privātuma paraugpraksi visos sistēmu dzīves cikla posmos, tostarp stingras kontroles, lai mazinātu jaunas ievainojamības, kas rodas algoritmisko sistēmu kontekstā.

4. "Pārredzamība: Sistēmas izstrādātāji tiek aicināti skaidri dokumentēt veidu, kādā tika atlasītas konkrētas datu kopas, mainīgie un modeļi izstrādei, apmācībai, apstiprināšanai un testēšanai, kā arī konkrētus pasākumus, kas tika izmantoti datu un izvades kvalitātes garantēšanai. Sistēmām jānorāda savs uzticamības līmenis katrā izvadā, un cilvēkiem jāiejaucas, ja pārliecība ir zema. Izstrādātājiem arī jādokumentē pieejas, kas tika izmantotas, lai izpētītu iespējamās novirzes. Sistēmām, kas būtiski ietekmē dzīvību un labklājību, ir nepieciešamas neatkarīgas pārbaudes un apstiprināšanas procedūras. Datu un modeļu publiska pārbaude nodrošina maksimālu iespēju labošanai. Tādējādi izstrādātājiem ir jāveicina trešo pušu testēšana sabiedrības interesēs.

5. "Interpretējamība un izskaidrojamība: Algoritmisko sistēmu vadītāji tiek mudināti sniegt informāciju gan par procedūrām, ko izmanto algoritmi (interpretējamība), gan par konkrētiem lēmumiem, ko viņi pieņem (izskaidrojamība). Izskaidrojamība var būt tikpat svarīga kā precizitāte, jo īpaši sabiedriskās politikas kontekstos vai jebkurā vidē, kurā pastāv bažas par to, kā algoritmi var tikt novirzīti, lai bez atzīšanas gūtu labumu vienai grupai salīdzinājumā ar otru. Ir svarīgi nošķirt paskaidrojumus un pēc-faktu racionalizāciju, kas neatspoguļo pierādījumus vai lēmumu pieņemšanas procesu, kas izmantots, lai nonāktu pie izskaidrotā secinājuma.

6. "Uzturamība: Pierādījumi par visu algoritmisko sistēmu drošumu ir jāapkopo visā to dzīves ciklā, tostarp sistēmas prasību dokumentācija, izmaiņu izstrāde vai ieviešana, testēšanas gadījumi un rezultāti, kā arī atrasto un laboto kļūdu žurnāls. Pareizai apkopei var būt nepieciešamas pārkvalificēšanās sistēmas ar jauniem apmācības datiem un/vai izmantoto modeļu nomaiņa.

7. "Apstrīdējamība un auditējamība: Regulatoriem būtu jāveicina tādu mehānismu pieņemšana, kas ļauj indivīdiem un grupām apšaubīt rezultātus un meklēt kompensāciju par nelabvēlīgām sekām, kas izriet no algoritmiski pamatotiem lēmumiem. Vadītājiem jānodrošina, ka dati, modeļi, algoritmi un lēmumi tiek reģistrēti, lai tos varētu pārbaudīt un rezultātus atkārtot gadījumos, kad ir aizdomas vai tiek apgalvots kaitējums. Revīzijas stratēģijas ir jāpublisko, lai indivīdi, sabiedriskās intereses organizācijas un pētnieki varētu pārskatīt un ieteikt uzlabojumus.

8. "Atbildība un atbildība: Publiskām un privātām struktūrām vajadzētu būt atbildīgām par lēmumiem, kas pieņemti, izmantojot to izmantotos algoritmus, pat ja nav iespējams detalizēti izskaidrot, kā šie algoritmi radīja savus rezultātus. Šādām struktūrām vajadzētu būt atbildīgām par veselām sistēmām, kas ir izvietotas to konkrētajā kontekstā, nevis tikai par atsevišķām daļām, kas veido attiecīgo sistēmu. Ja tiek atklātas problēmas automatizētajās sistēmās, organizācijām, kas ir atbildīgas par šo sistēmu izvietošanu, jādokumentē konkrētās darbības, ko tās veiks, lai novērstu problēmu, un kādos apstākļos šādu tehnoloģiju izmantošana ir jāpārtrauc vai jāpārtrauc.

9. "Ierobežojoša ietekme uz vidi: Jāizstrādā algoritmiskās sistēmas, lai ziņotu par ietekmes uz vidi aprēķiniem, tostarp par oglekļa emisijām gan apmācībā, gan darbības aprēķinos. AI sistēmas jāveido tā, lai nodrošinātu, ka to oglekļa emisijas ir saprātīgas, ņemot vērā precizitātes pakāpi, kas nepieciešama kontekstā, kurā tās tiek izmantotas.

Es ticu, ka jūs rūpīgi un vienmēr rūpīgi izlasīsit katru no šiem svarīgajiem mākslīgā intelekta ētikas priekšrakstiem. Lūdzu, ņemiet tos pie sirds.

Secinājumi

ACM paziņojumā ir smalka, bet tikpat svarīga daļa, kuru, manuprāt, daudzi varētu nejauši neievērot. Ļaujiet man pievērst tam jūsu uzmanību.

Es atsaucos uz daļu, kurā tiek apspriesta mokoša mīkla, kas saistīta ar kompromisiem, kas saistīti ar AI ētikas priekšrakstiem. Redziet, vairums cilvēku, lasot ētiskos mākslīgā intelekta principus, bieži vien neprātīgi māj ar galvu un pieņem, ka visi priekšraksti ir vienādi pēc svara un visiem priekšrakstiem vienmēr tiks piešķirta tāda pati optimālā cieņas un vērtības līdzība.

Ne reālajā pasaulē.

Kad gumija sastopas ar ceļu, jebkura veida mākslīgais intelekts, kam ir kaut neliela sarežģītība, smagi pārbaudīs AI ētikas priekšrakstus attiecībā uz to, vai daži elementi ir pietiekami sasniedzami salīdzinājumā ar dažiem citiem principiem. Es saprotu, ka jūs varētu skaļi izsaukt, ka visam mākslīgajam intelektam ir maksimāli jāizmanto visi AI ētikas priekšraksti, taču tas nav īpaši reāli. Ja vēlaties pieņemt šādu nostāju, es uzdrošinos teikt, ka jums, visticamāk, būs jāpasaka lielākajai daļai vai gandrīz visiem AI veidotājiem un lietotājiem, lai viņi aizvērtu veikalu un pilnībā atmest AI.

Ir jāpieņem kompromisi, lai mākslīgais intelekts tiktu ārā no durvīm. To sakot, es neatbalstu tādu stūru novēršanu, kas pārkāpj AI ētikas priekšrakstus, ne arī nenorādu, ka tiem vajadzētu pārkāpt AI likumus. Ir jāsasniedz noteikts minimums, kuru pārsniedzot, mērķis ir censties vairāk. Galu galā līdzsvars ir rūpīgi jāizvērtē. Šis līdzsvarošanas akts ir jāveic apzināti, skaidri, likumīgi un ar AI ētiku kā bona fide un patiesi pieņemtu pārliecību (iespējams, vēlēsities redzēt, kā uzņēmumi izmanto AI ētikas padomes, lai mēģinātu iegūt šo svinīgo pieeju, sk. saite šeit).

Šeit ir daži aizzīmēti punkti, kas minēti ACM deklarācijā par kompromisu sarežģītību (citēts no oficiālā dokumenta):

  • "Risinājumiem jābūt samērīgiem ar risināmo problēmu, pat ja tas ietekmē sarežģītību vai izmaksas (piemēram, atsakoties no publiskās videonovērošanas izmantošanas vienkāršam prognozēšanas uzdevumam)."
  • “Jāņem vērā dažādi veiktspējas rādītāji, un atkarībā no lietojumprogrammas domēna to svērums var būt atšķirīgs. Piemēram, dažos veselības aprūpes lietojumos viltus negatīvu rezultātu ietekme var būt daudz sliktāka nekā viltus negatīva ietekme, savukārt krimināltiesībās viltus negatīvu rezultātu sekas (piemēram, nevainīgas personas ieslodzīšana) var būt daudz sliktākas nekā viltus negatīvas. Vēlamākā operētājsistēmas iestatīšana reti ir tā, kurai ir maksimāla precizitāte.
  • “Bažas par privātumu, komercnoslēpumu aizsardzību vai analītikas atklāšana, kas var ļaut ļaunprātīgiem dalībniekiem spēlēt sistēmu, var attaisnot piekļuves ierobežošanu tikai kvalificētām personām, taču tās nedrīkst izmantot, lai attaisnotu trešās puses kontroles ierobežošanu vai izstrādātāju attaisnošanu no pienākuma. atzīt un labot kļūdas.
  • “Pārredzamība ir jāapvieno ar atbildības procesiem, kas ļauj ieinteresētajām personām, kuras ietekmē algoritmiskā sistēma, meklēt jēgpilnu atlīdzību par nodarīto kaitējumu. Pārredzamību nevajadzētu izmantot, lai leģitimizētu sistēmu vai nodotu atbildību citām pusēm.
  • “Kad sistēmas ietekme ir liela, priekšroka var būt labāk izskaidrojamai sistēmai. Daudzos gadījumos nav kompromisa starp izskaidrojamību un precizitāti. Tomēr dažos gadījumos nepareizi paskaidrojumi var būt pat sliktāki par to neesamību (piemēram, veselības sistēmās simptoms var atbilst daudzām iespējamām slimībām, nevis tikai vienai).

Tie, kas izstrādā vai izmanto AI, iespējams, atklāti neapzinās kompromisus, ar kuriem viņi saskaras. Uzņēmuma augstākie vadītāji varētu naivi pieņemt, ka AI atbilst visu AI ētikas principu maksimumiem. Viņi vai nu tam tic, jo viņiem nav skaidrības par AI, vai arī vēlas tam ticēt un, iespējams, piemiedz ar aci, lai viegli pieņemtu AI.

Izredzes ir tādas, ka nespēja pēc būtības un atklāti stāties pretī kompromisiem, beigsies ar AI, kas radīs kaitējumu. Šie zaudējumi savukārt, visticamāk, pavērs uzņēmumu potenciāli liela mēroga saistībām. Turklāt parastie likumi var attiekties uz iespējamām noziedzīgām darbībām, kas saistītas ar AI, kā arī jaunākie uz AI vērstie likumi, kas attiecas arī uz to. Tonns ķieģeļu gaida virs to galvām, kuri domā, ka var tikt galā ar kompromisiem, vai kuri dziļi neapzinās, ka kompromisi pastāv (viņiem neizbēgami nāks satriecoša atziņa).

Pagaidām es došu pēdējo vārdu par šo tēmu ACM paziņojuma nobeiguma aspektam, jo ​​es domāju, ka tas ir spēcīgs darbs, lai izskaidrotu, ko šie ētiskie AI priekšraksti makroskopiski cenšas panākt:

  • “Iepriekš minētie ieteikumi ir vērsti uz atbildīgu algoritmisko sistēmu projektēšanu, izstrādi un izmantošanu; atbildība ir jānosaka ar likumu un sabiedrisko kārtību. Algoritmisko sistēmu pieaugošā jauda un to izmantošana dzīvībai kritiskos un no tā izrietošos lietojumos nozīmē, ka to izmantošanai ir jābūt ļoti uzmanīgiem. Šie deviņi instrumentālie principi ir paredzēti, lai iedvesmotu diskusijas, pētījumu uzsākšanu un pārvaldības metožu izstrādi, lai sniegtu labumu plašam lietotāju lokam, vienlaikus veicinot uzticamību, drošību un atbildību. Galu galā tieši konkrētais konteksts nosaka pareizu algoritmiskās sistēmas dizainu un izmantošanu sadarbībā ar visu ietekmēto ieinteresēto pušu pārstāvjiem” (citēts no formālā dokumenta).

Kā mums gudri saka gudri vārdi, tūkstoš jūdžu ceļojums sākas ar pirmo soli.

Es lūdzu jūs iepazīties ar mākslīgā intelekta ētiku un AI likumu, sperot visus pirmos soļus, kas ļaus jums sākt darbu, un pēc tam palīdzēt turpināt šos svarīgos centienus. Skaistums ir tāds, ka mēs vēl tikai sāksim izdomāt, kā pārvaldīt un sabiedriski tikt galā ar mākslīgo intelektu, tādējādi jūs iekļūstat pirmajā stāvā, un jūsu pūles var uzskatāmi veidot jūsu un mūsu visu nākotni.

AI ceļojums ir tikko sācies, un joprojām tiek veikti svarīgi pirmie soļi.

Avots: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- profesija-asociācija-acm/