Lūk, kāpēc uzņēmumiem ir nemierīgas mīlestības un naida attiecības ar AI ētikas padomēm

Vai uzņēmumam ir jāizveido AI ētikas konsultatīvā padome?

Jūs varētu būt pārsteigts, uzzinot, ka šī nav vienkārša atbilde ar jā vai nē.

Pirms es iedziļināšos sarežģījumos, kas ir pamatā AI ētikas konsultatīvās padomes izveides priekšrocībām un mīnusiem, pārliecināsimies, ka mēs visi esam vienisprātis par to, no kā sastāv AI ētikas konsultatīvā padome un kāpēc tā ir kļuvusi virsraksta līmenī. pamanāmība.

Kā visi zina, mākslīgais intelekts (AI) un praktiskā mākslīgā intelekta izmantošana uzņēmējdarbībā ir kļuvusi par obligātu mūsdienu uzņēmumu priekšrocību. Jums būtu grūti strīdēties citādi. Zināmā mērā mākslīgā intelekta ieviešana ir uzlabojusi produktus un pakalpojumus, kā arī dažkārt samazinājusi izmaksas, kas saistītas ar minēto produktu un pakalpojumu nodrošināšanu. Plašs efektivitātes un efektivitātes paaugstinājumu saraksts, iespējams, var būt saistīts ar saprātīgu un atbilstošu AI pielietojumu. Īsāk sakot, jūsu veikto darbību pievienošana vai palielināšana, iekļaujot AI, var būt diezgan ienesīgs piedāvājums.

Ir arī tas, ko mēs teiksim lielas šļakatas kas nāk ar AI pievienošanu jūsu uzņēmuma centieniem.

Uzņēmumi skaļi un lepojas ar AI izmantošanu. Ja mākslīgais intelekts arī uzlabo jūsu preces, tas ir lieliski. Tikmēr apgalvojumi par mākslīgā intelekta izmantošanu ir pietiekami piesaistoši, lai jūs varētu darīt to pašu, ko darījāt iepriekš, tomēr nopelnīt daudz vairāk naudas, mētājoties ar AI kā daļu no jūsu biznesa stratēģijas un ārpus tās. durvju preces.

Pēdējais punkts par to, ka dažkārt ir jāmācās par to, vai AI patiešām tiek izmantots, liek mums iejusties AI ētikas arēnā. Uzņēmumi par AI izsaka visa veida nepatiesus apgalvojumus. Vēl ļaunāk, iespējams, ir AI izmantošana, kas izrādās tā sauktā AI For Bad.

Piemēram, jūs, bez šaubām, esat lasījis par daudzajiem AI sistēmu gadījumiem, kuros tiek izmantota mašīnmācīšanās (ML) vai dziļā mācīšanās (DL), kurās ir iesakņojusies rasu aizspriedumi, dzimumu aizspriedumi un citas nepamatoti nepareizas diskriminācijas metodes. Manu pastāvīgo un plašo informāciju par šiem jautājumiem, kas saistīti ar nelabvēlīgu AI un kliedzošiem aicinājumiem pēc AI ētikas un ētiskās AI, sk. saite šeit un saite šeit, tikai nosaukt dažus.

Tātad šķietami rožainajā AI izmantošanā uzņēmumos ir paslēpti šie skābie draiveri:

  • Tukši apgalvojumi par AI izmantošanu, lai gan patiesībā AI nav vai AI infūzija ir nenozīmīga
  • Nepatiesi apgalvojumi par AI izmantošanu, kas ir tīši izstrādāti, lai maldinātu
  • Netīša mākslīgā intelekta iekļaušana, kas rada nepareizas novirzes un ir diskriminējoša
  • Mērķtiecīgi veidots AI, lai izplatītu sliktu aizspriedumu un nicināmas diskriminējošas darbības
  • cits

Kā šāda veida neapdomīga vai apkaunojoša prakse rodas uzņēmumos?

Viens no ievērojamākajiem mīklas elementiem ir AI ētikas izpratnes trūkums.

Augstākie vadītāji var nebūt informēti par pašu AI izstrādi, kas atbilst ētisko AI priekšrakstu kopumam. Šāda uzņēmuma mākslīgā intelekta izstrādātājiem varētu būt zināma izpratne par šo jautājumu, lai gan, iespējams, viņi ir iepazinušies tikai ar AI ētikas teorijām un nezina, kā pārvarēt plaisu ikdienas AI izstrādes centienos. Pastāv arī situācija, kad AI izstrādātāji vēlas pieņemt AI ētiku, bet pēc tam saņem spēcīgu atgrūšanos, kad vadītāji un vadītāji uzskata, ka tas palēninās viņu AI projektus un palielinās AI izstrādes izmaksas.

Daudzi augstākā līmeņa vadītāji neapzinās, ka mākslīgā intelekta ētikas neievērošana, visticamāk, viņus un uzņēmumus aizskars pēc mākslīgā intelekta izlaišanas, kas ir pārpilns ar sarežģītām un pavisam neglītām problēmām. Uzņēmums var tikt pieķerts ar sliktu AI, kas pēc tam nožēlojami grauj citādi ilgstoši veidoto uzņēmuma reputāciju (reputācijas risks). Klienti var izvēlēties vairs neizmantot uzņēmuma produktus un pakalpojumus (klientu zaudēšanas risks). Konkurenti varētu gūt labumu no šīs neveiksmes (konkurences risks). Un ir daudz advokātu, kas ir gatavi palīdzēt pārkāpējiem, cenšoties iesniegt nopietnas tiesas prāvas pret firmām, kas ir ielaidušas sapuvušo AI savā uzņēmuma izstrādājumos (juridiskais risks).

Īsāk sakot, ROI (investīciju atdeve) piemērotai AI ētikas izmantošanai gandrīz noteikti ir izdevīgāka nekā salīdzinājumā ar pakārtotajām izmaksām, kas saistītas ar slikto AI smaku, kuru nevajadzēja ne izdomāt, ne atbrīvot.

Izrādās, ka ne visi ir dabūjuši to piezīmi, ja tā var teikt.

AI ētika tikai pakāpeniski gūst panākumus.

Daži uzskata, ka neizbēgami var būt nepieciešama likuma garā daļa, lai vēl vairāk iedvesmotu pieņemt ētiskas AI pieejas.

Papildus AI ētikas priekšrakstu izmantošanai kopumā ir attiecīgs jautājums par to, vai mums vajadzētu būt atšķirīgiem likumiem, kas regulētu dažādas AI izstrādes un izmantošanas iespējas. Starptautiskajā, federālajā, štatu un vietējā līmenī patiešām tiek pieņemti jauni likumi, kas attiecas uz AI izstrādes diapazonu un raksturu. Centieni izstrādāt un pieņemt šādus likumus ir mēreni. AI ētika kalpo vismaz kā pārdomāts pārtraukums, un gandrīz noteikti zināmā mērā tiks tieši iekļauts šajos jaunajos likumos.

Ņemiet vērā, ka daži nelokāmi apgalvo, ka mums nav vajadzīgi jauni likumi, kas aptver AI, un ka mūsu esošie likumi ir pietiekami. Patiesībā viņi jau iepriekš brīdina, ka, ja mēs ieviesīsim dažus no šiem AI likumiem, mēs nogalināsim zelta zosu, ierobežojot AI progresu, kas sniedz milzīgas sabiedrības priekšrocības. Skatiet, piemēram, manu pārklājumu vietnē saite šeit un saite šeit.

Pārliecināsimies, ka mēs visi esam vienisprātis par to, ko satur AI ētikas pamati.

Savā slejā es iepriekš esmu apspriedis dažādas AI ētikas principu kolektīvās analīzes, piemēram, šo novērtējumu plkst. saite šeit, kas piedāvā noderīgu ētisko AI kritēriju vai raksturlielumu sarakstu saistībā ar AI sistēmām:

  • Caurspīdīgums
  • Taisnīgums un godīgums
  • Ne-ļaunprātība
  • atbildība
  • Privātums
  • Labums
  • Brīvība un autonomija
  • Uzticēties
  • Ilgtspējība
  • cieņa
  • Solidaritāte

Šie AI ētikas principi ir nopietni jāizmanto AI izstrādātājiem, kā arī tie, kas pārvalda AI izstrādes centienus, un pat tie, kas galu galā veic AI sistēmu apkopi un uzturēšanu.

Visas ieinteresētās puses visā AI izstrādes un lietošanas dzīves ciklā tiek uzskatītas par ētiskā AI noteikto normu ievērošanu. Tas ir svarīgs akcents, jo parasti tiek pieņemts, ka “tikai kodētāji” vai tie, kas programmē AI, ir pakļauti AI ētikas jēdzieniem. Ir nepieciešams ciemats, lai izstrādātu un ieviestu AI, un tam visam ciemam ir jābūt pieredzējušam un jāievēro AI ētikas priekšraksti.

Mēģinot ieviest un saglabāt ilgstošu uzmanību attiecībā uz AI ētikas priekšrakstu izmantošanu, daļēji var izmantot, izveidojot AI ētikas padomdevēju padomi.

Tālāk mēs atklāsim AI ētikas konsultatīvās padomes aspektus.

AI ētikas padomes un kā tās pareizi izpildīt

Uzņēmumi var atrasties dažādos AI ieviešanas posmos, kā arī dažādos AI ētikas ieviešanas posmos.

Iedomājieties uzņēmumu, kas vēlas sākt AI ētikas ievērošanu, bet nav pārliecināts, kā to izdarīt. Vēl viens scenārijs varētu būt uzņēmums, kas jau ir ķēries pie AI ētikas, taču šķiet, ka nav pārliecināts par to, kas jādara, lai veicinātu centienus. Trešais scenārijs varētu būt uzņēmums, kas ir aktīvi izstrādājis un izmantojis AI un iekšēji ir daudz darījis, lai iemiesotu AI ētiku, lai gan viņi saprot, ka pastāv iespēja, ka, iespējams, iekšējās grupas domāšanas dēļ, viņi palaidīs garām citas atziņas.

Jebkurā no šiem scenārijiem AI ētikas konsultatīvās padomes izveide varētu būt saprātīga.

Jēdziens ir diezgan vienkāršs (labi, lai precizētu, vispārējais jēdziens ir aisberga sakāmvārds, un velns noteikti ir detaļās, kā mēs īsi runāsim).

AI ētikas konsultatīvā padome parasti sastāv galvenokārt no ārējiem padomdevējiem, kuri tiek aicināti darboties īpašā uzņēmuma konsultatīvā padomē vai komitejā. Padomē var būt iekļauti arī daži iekšējie dalībnieki, lai gan parasti ideja ir piesaistīt konsultantus no ārpuses, un tas var sniegt daļēji neatkarīgu skatījumu uz to, ko uzņēmums dara.

Es saku daļēji neatkarīgs, jo neapšaubāmi būs daži potenciāli neatkarības konflikti, kas var rasties ar izvēlētajiem AI ētikas konsultatīvās padomes locekļiem. Ja uzņēmums maksā konsultantiem, tas rada acīmredzamu jautājumu par to, vai algotie biedri jūtas atkarīgi no firmas, lai saņemtu samaksu, vai arī viņi varētu būt neomulīgi kritizēt dāvanu zirgu, kas viņiem ir rokās. No otras puses, uzņēmumi ir pieraduši izmantot ārējos apmaksātos konsultantus, lai sniegtu jebkādus neatkarīgus viedokļus, tāpēc tas jebkurā gadījumā ir ierasts un gaidīts.

AI ētikas padomdevējai padomei parasti tiek lūgts periodiski tikties klātienē vai virtuāli attālināti. Uzņēmums tos izmanto kā skaņas dēli. Pastāv arī iespēja, ka dalībnieki tiek nodrošināti ar dažādiem iekšējiem dokumentiem, ziņojumiem un piezīmēm par uzņēmuma centieniem saistībā ar AI. Atsevišķus AI ētikas padomdevēju padomes locekļus var lūgt apmeklēt iekšējās sanāksmēs, kas atbilst viņu īpašajām zināšanām. utt.

Papildus tam, ka AI ētikas konsultatīvajai padomei ir ne tikai iespēja redzēt, kas uzņēmumā notiek ar mākslīgo intelektu, un nodrošināt jaunu skatījumu, tai parasti ir arī divējāda loma — būt AI un ētiskā AI jaunāko pakalpojumu sniedzējai no ārpuses uz iekšu. Iekšējiem resursiem, iespējams, nepietiks laika, lai izpētītu, kas notiek ārpus uzņēmuma, un tāpēc AI ētikas konsultatīvās padomes locekļi var iegūt īpaši koncentrētus un pielāgotus vismodernākos viedokļus.

Ir arī AI ētikas konsultatīvās padomes izmantošana no iekšpuses uz āru.

Tas var būt sarežģīti.

Koncepcija ir tāda, ka AI ētikas konsultatīvā padome tiek izmantota, lai informētu ārpasauli, ko uzņēmums dara saistībā ar AI un AI ētiku. Tas var būt ērts līdzeklis, lai stiprinātu uzņēmuma reputāciju. Ar mākslīgo intelektu saistītie produkti un pakalpojumi var tikt uzskatīti par uzticamākiem, pateicoties AI ētikas konsultatīvās padomes zelta apstiprinājuma zīmogam. Turklāt aicinājumus uzņēmumam vairāk rīkoties saistībā ar ētisko AI var nedaudz mazināt, norādot, ka uzņēmums jau izmanto AI ētikas konsultatīvo padomi.

Jautājumi, kurus uzņēmums, kas izmanto šādu mehānismu, parasti uzdod AI ētikas konsultatīvajai padomei, bieži ietver:

  • Vai uzņēmumam vajadzētu izmantot AI konkrētam produktam vai pakalpojumam, vai arī tas šķiet pārāk satraucoši?
  • Vai uzņēmums savos AI centienos ņem vērā visus AI ētikas apsvērumus?
  • Vai uzņēmums ir iekritis grupas domāšanā un nevēlas vai nespēj saskatīt potenciāli satraucošus AI ētikas kritumus, kas gaida šos centienus?
  • Kādas jaunākās pieejas AI ētikai uzņēmumam būtu jācenšas pieņemt?
  • Vai būtu iespējams sniegt ārēju atzinību mūsu AI ētikas centieniem un saistībām?
  • cits

Iesaistīšanās AI ētikas konsultatīvajā padomē noteikti ir jēga, un uzņēmumi arvien vairāk virzās pa šo ceļu.

Lūdzu, ņemiet vērā, ka šai monētai ir arī otra puse.

Monētas vienā pusē AI ētikas konsultatīvās padomes var būt nākamā labākā lieta kopš sagrieztas maizes. Neaizmirstiet arī medaļas otru pusi, proti, tās var sagādāt arī monumentālas galvassāpes, un jūs varētu nožēlot, ka esat iekļuvuši šajā apburošajā teritorijā (kā redzēsiet šajā diskusijā, mīnusus var pārvaldīt, ja zināt, ko jūs dara).

Uzņēmumi sāk saprast, ka, izvēloties AI ētikas konsultatīvās padomes ceļu, tie var nonākt grūtībās. Varētu apgalvot, ka šī mahinācija ir zināmā mērā līdzīga spēlei ar uguni. Redziet, uguns ir ļoti spēcīgs elements, ko varat izmantot, lai pagatavotu maltītes, pasargātu jūs no plēsējiem, atrodoties tuksnesī, uzturētu siltumu, izdalītu gaismu un sniegtu virkni parocīgu un svarīgu labumu.

Uguns var arī apdedzināt, ja nespējat ar to labi tikt galā.

Ir bijuši dažādi jaunāko piezīmju ziņu virsraksti, kas spilgti parāda AI ētikas konsultatīvās padomes iespējamās briesmas. Ja dalībnieks īsumā nolemj, ka vairs netic, ka uzņēmums veic pareizās ētiskās AI darbības, neapmierinātais biedrs var ar milzīgu aizrautību atmest. Pieņemot, ka persona, visticamāk, ir plaši pazīstama mākslīgā intelekta jomā vai nozarē, viņu lecošais kuģis noteikti piesaistīs plašu plašsaziņas līdzekļu uzmanību.

Firmai tad ir jāiet aizsardzībā.

Kāpēc biedrs aizgāja?

Ko uzņēmums negodīgi dara?

Dažas firmas pieprasa, lai AI ētikas konsultatīvās padomes locekļi parakstītu NDA (neizpaušanas līgumus), kas, šķiet, aizsargās uzņēmumu, ja loceklis nolems rīkoties negodīgi un izmest uzņēmumu. Tomēr problēma ir tāda, ka pat tad, ja persona klusē, tomēr, visticamāk, tiek atzīts, ka viņš vairs nedarbojas AI ētikas konsultatīvajā padomē. Tas pats par sevi radīs visu veidu uzacis raisošus jautājumus.

Turklāt, pat ja NDA pastāv, dažreiz dalībnieks mēģinās apiet noteikumus. Tas varētu ietvert atsauci uz nenosauktiem, aci ar aci, vispārīgiem "gadījumu pētījumiem", lai izceltu AI ētikas anomālijas, kuras, pēc viņu domām, uzņēmums ir veicis mānīgi.

Kritušais dalībnieks var būt pilnīgi nekaunīgs un tieši nosaucot savas bažas par uzņēmumu. Tas, vai tas ir nepārprotams NDA pārkāpums, iespējams, ir mazāk svarīgi nekā fakts, ka tiek izplatīts ētiskais AI šaubas. Firma, kas mēģina iesūdzēt biedru par NDA pārkāpumu, var brutāli pielaist sev karstu ūdeni, pievēršot papildu uzmanību strīdam un šķietami klasisks Dāvida un Goliāta duelis (firma ir lielais “briesmonis”).

Daži vadošie darbinieki pieņem, ka viņi var vienkārši panākt finansiālu vienošanos ar jebkuru AI ētikas konsultatīvās padomes locekli, kurš uzskata, ka uzņēmums rīkojas nepareizi, tostarp ignorē vai mazina paustās bažas.

Tas var nebūt tik vienkārši, kā pieņemts.

Bieži vien locekļi ir ētiski noskaņoti un viegli neatkāpsies no tā, ko viņi uzskata par ētisku cīņu “labais pret nepareizo”. Viņi var būt arī citādi finansiāli stabili un nevēlas pārkāpt savus ētiskos priekšrakstus, vai arī viņiem var būt cita nodarbošanās, ko neskāra viņu aiziešana no AI ētikas konsultatīvās padomes.

Kā varētu būt skaidrs, daži vēlāk saprot, ka AI ētikas konsultatīvā padome ir abpusēji griezīgs zobens. Šāda grupa var sniegt milzīgu vērtību un svarīgu atziņu. Tajā pašā laikā jūs spēlējaties ar uguni. Iespējams, kāds dalībnieks vai dalībnieki nolemj, ka vairs netic, ka uzņēmums veic uzticamu ētikas AI darbu. Ziņās ir bijušas pazīmes, ka reizēm visa AI ētikas padomdevēja padome izstājas kopā, visas uzreiz vai tās locekļi ir pārsvarā paziņojuši par aiziešanu.

Esiet gatavs labajam un problēmām, kas var rasties, izmantojot AI ētikas konsultatīvās padomes.

Protams, ir reizes, kad uzņēmumi patiesībā nedara pienācīgas lietas, kas attiecas uz AI ētiku.

Tāpēc mēs ceram un sagaidām, ka AI ētikas padomdevēja padome šajā uzņēmumā pastiprināsies, lai to darītu zināmu, iespējams, vispirms uzņēmuma iekšienē. Ja firma turpina iet uz šķietamo slikto ceļu, biedriem noteikti būtu ētiski pienākums (iespējams, arī juridiski) veikt citas darbības, kas, viņuprāt, ir piemērotas (biedriem jākonsultējas ar savu personīgo advokātu, lai saņemtu šādu juridisku padomu). Iespējams, ka tas ir vienīgais veids, kā panākt, lai uzņēmums mainītu savus ceļus. Var šķist, ka kāda dalībnieka vai dalībnieku kopuma krasa rīcība ir pēdējais līdzeklis, kas, pēc viņu cerības, mainīs plūdmaiņu. Turklāt šie dalībnieki, visticamāk, nevēlas būt daļa no kaut kā, kas, viņuprāt, ir nomaldījies no AI ētikas.

Noderīgs veids, kā apsvērt šīs iespējas, ir šāds:

  • Uzņēmums ir nomaldījies, biedrs izvēlas izstāties, jo tiek uzskatīts, ka uzņēmums neievēro atbilstību
  • Uzņēmums nenomaldās, bet biedrs uzskata, ka uzņēmums ir un tādējādi aiziet, jo šķietama neatbilstība

Ārējā pasaule ne vienmēr zinās, vai dalībniekam, kurš izstājas, ir bona fide pamats bažām par uzņēmumu, vai arī tas varētu būt īpatnējs vai nepareizs dalībnieka iespaids. Pastāv arī diezgan vienkārša iespēja, ka dalībnieks pamet grupu citu saistību dēļ vai personisku iemeslu dēļ, kam nav nekā kopīga ar uzņēmuma darbību.

Būtība ir tāda, ka jebkuram uzņēmumam, kas pieņem AI ētikas konsultatīvo padomi, ir svarīgi rūpīgi pārdomāt visu ar grupu saistīto dzīves cikla posmu klāstu.

Ar visām runām par problemātiskajiem aspektiem es nevēlos radīt iespaidu, ka būtu jāatsakās no AI ētikas konsultatīvās padomes. Tā nav vēsts. Īstā būtība ir AI ētikas padomdevēja padome un pārliecinieties, ka to darāt pareizi. Padariet to par savu loloto mantru.

Šeit ir dažas no bieži pieminētajām AI ētikas konsultatīvās padomes priekšrocībām:

  • Jums ir pa rokai līdzeklis, lai AI projektus un idejas atgūtu no daļēji neatkarīgas privātas grupas
  • Izmantojiet AI ētikas zināšanas, kas iegūtas ārpus uzņēmuma
  • Mērķis ir izvairīties no AI ētikas kliedzieniem un tiešām katastrofām no uzņēmuma puses
  • Esiet uzņēmuma un tā AI sistēmu sabiedrisko attiecību veicinātājs
  • Iekšējās grupas domāšanas izrāviens par AI un AI ētiku
  • Iegūstiet jaunu skatījumu uz AI inovācijām un to praktiskumu
  • Uzlabojiet uzņēmuma stāvokli un statusu
  • Izmantojiet kā neierobežotu balsi gadījumos, kad AI centieni ir apgrūtinoši
  • cits

Tālāk ir norādīti izplatītākie veidi, kā uzņēmumi izjauc un samazina savu AI ētikas konsultatīvo padomi (nedariet to!):

  • Sniedziet neskaidrus un mulsinošus norādījumus par misiju un mērķi
  • Tikai taupīgi apspriests un bieži vien nelaikā pēc tam, kad zirgs jau ir ārā no kūts
  • Turēja tumsā
  • Ievadīta ļoti filtrēta informācija, kas sniedz maldinošu lietu attēlojumu
  • Izmantots tikai kā vitrīna un nevienam citam vērtību radīšanas mērķim
  • Nav atļauts veikt jebkādu iekšējo lietu izpēti
  • Pietiekami resursi, lai pietiekami veiktu savu darbu
  • Skaidras vadības trūkums grupā
  • Uzņēmuma vadības uzmanības trūkums attiecībā uz grupu
  • Paredzams, ka tas sniegs aklu apstiprinājumu tam, kas tiek iesniegts
  • Nejauši izvēlētie locekļi
  • Izturējās ar nelielu cieņu un šķietami tikai atzīme
  • cits

Vēl viena bieži mulsinoša problēma ir saistīta ar dažādu AI ētikas konsultatīvās padomes locekļu raksturu un uzvedību, kas dažkārt var būt problemātiska šādos veidos:

  • Daži dalībnieki varētu būt tikai mākslīgā intelekta ētikas konceptualizatori, nevis pārzināt AI ētiku kā praksi un tādējādi sniegt minimālistisku biznesa lietpratīgu ieskatu.
  • Daži var būt pārsteidzoši, kad runa ir par AI ētiku, un ar tiem ir ārkārtīgi grūti tikt galā visā viņu dalības laikā.
  • Iekšējās cīņas var kļūt par būtisku traucēkli, bieži vien lielu ego sadursmes, un grupa var kļūt par disfunkcionālu.
  • Daži var būt pārāk aizņemti un pārlieku apņēmušies, tāpēc viņi ir atturīgi no AI ētikas konsultāciju centieniem
  • Dažiem ir dziļi iesakņojies nelokāms viedoklis par AI ētiku, kas ir neelastīgs un nereāls
  • Daži ir pakļauti emocionāliem, nevis analītiskiem un sistēmiskiem apsvērumiem, kas ir AI ētikas pamatā
  • Var līdzināties slavenajam sakāmvārdam būt kā kaķu baram, kas nekoncentrējas un bezmērķīgi klīst
  • cits

Šķiet, ka daži uzņēmumi, kaut kā negribot, izveido AI ētikas konsultatīvo padomi. Neviena doma nav saistīta ar izraudzītajiem dalībniekiem. Netiek domāts par to, ko viņi katrs nes pie galda. Netiek domāts par sanāksmju biežumu un to, kā tās jānovada. Par AI ētikas konsultatīvās padomes vadīšanu netiek domāts. utt.

Savā ziņā jūsu attapības trūkuma dēļ jūs, visticamāk, iekustināsit vilciena avāriju.

Nedari to.

Varbūt šis saraksts ar pareizās lietas darīt tagad jums šķiet acīmredzams, pamatojoties uz līdzšinējo diskursu, taču jūs, iespējams, būtu šokēts, uzzinot, ka daži uzņēmumi to saprot pareizi:

  • Precīzi norādiet AI ētikas konsultatīvās padomes misiju un mērķi
  • Nodrošiniet, lai grupai tiktu pievērsta atbilstoša augstākā līmeņa vadītāju uzmanība
  • Nosakiet grupai vispiemērotāko dalībnieku veidu
  • Pieejiet pie vēlamajiem dalībniekiem un noskaidrojiet piemērotību grupai
  • Veiciet atbilstošus pasākumus ar izvēlētajiem dalībniekiem
  • Izveidojiet sanāksmju loģistiku, biežumu utt.
  • Nosakiet dalībnieku pienākumus, apjomu un dziļumu
  • Paredzēt iekšējos resursus, kas nepieciešami, lai palīdzētu grupai
  • Piešķirt pietiekami daudz resursu pašai grupai
  • Saglabājiet AI ētikas konsultatīvo padomi aktīvu un iesaistiet to
  • Iepriekš ieplānojiet eskalāciju, ja rodas bažas
  • Norādiet, kā tiks risināti ārkārtas vai uz krīzi orientēti notikumi
  • Ja nepieciešams, pagrieziet elementus uz āru vai iekšu, lai maisījums būtu piemērots
  • Iepriekš ir paredzējuši dalībnieku izstāšanās ceļus
  • cits

Secinājumi

Pirms dažiem gadiem daudzi autoražotāji un pašpiedziņas tehnoloģiju uzņēmumi, kas sāk izstrādāt uz AI balstītas pašbraucošas automašīnas, pēkšņi tika mudināti pieņemt AI ētikas konsultatīvās padomes. Līdz tam laikam šķita, ka par šādas grupas esamību bija maz informācijas. Tika pieņemts, ka iekšējā uzmanība uz ētisko AI būtu pietiekama.

Savā slejā esmu ilgi apspriedis dažādas neveiksmīgas mākslīgā intelekta ētikas kļūdas vai nepilnības, kas dažkārt ir izraisījušas problēmas ar pašbraucošu automašīnu, piemēram, nelielas transportlīdzekļu avārijas, atklātas automašīnu sadursmes un citas nelaimes. Skatiet manus rakstus vietnē saite šeit. Tiem, kas ražo autonomus transportlīdzekļus, galvenā uzmanība jāpievērš mākslīgā intelekta drošības un līdzīgu aizsardzības līdzekļu nozīmei. AI ētikas konsultatīvās padomes šajā nišā palīdz saglabāt AI drošību par svarīgu prioritāti.

Mans mīļākais veids, kā izteikt šāda veida atklāsmi par mākslīgā intelekta ētiku, ir šo lietu pielīdzināt zemestrīcēm.

Kalifornijas iedzīvotāji laiku pa laikam ir pakļauti zemestrīcēm, dažreiz diezgan spēcīgām. Jūs varētu domāt, ka vienmēr būtu jāapsver iespēja sagatavoties zemestrīcei. Ne tā. Cikls darbojas šādi. Notiek būtiska zemestrīce, un cilvēkiem tiek atgādināts, ka viņi ir gatavi zemestrīcei. Uz īsu brīdi ir steiga veikt šādus sagatavošanās darbus. Pēc kāda laika uzmanība tam mazinās. Sagatavošanās darbi ir novārtā vai citādi tiek atstāti novārtā. Uzplaukums, notiek vēl viena zemestrīce, un visi tie, kam vajadzēja būt gataviem, tiek pieķerti “neapzināti”, it kā viņi nebūtu sapratuši, ka kādreiz varētu notikt zemestrīce.

Uzņēmumi bieži rīkojas līdzīgi attiecībā uz AI ētikas konsultatīvajām padomēm.

Viņi to neuzsāk, un tad pēkšņi, kad viņu AI notiek katastrofa, viņi reaģē uz darbību. Viņi viegli izveido AI ētikas konsultatīvo padomi. Tam ir daudzas problēmas, kuras es iepriekš minēju. AI ētikas konsultatīvā padome sabrūk. Hmm, jauna AI nelaime uzņēmumā atkal pamodina nepieciešamību pēc AI ētikas konsultatīvās padomes.

Nomazgājiet, noskalojiet un atkārtojiet.

Uzņēmumi noteikti atklāj, ka viņiem dažreiz ir mīlestības un naida attiecības ar viņu AI ētikas konsultatīvās padomes centieniem. Kad runa ir par to, kā rīkoties pareizi, mīlestība ir gaisā. Kad runa ir par to, kā rīkoties nepareizi, naids nežēlīgi parādās. Noteikti dariet visu nepieciešamo, lai saglabātu mīlestību un novērstu naidu, kad runa ir par AI ētikas konsultatīvās padomes izveidi un uzturēšanu.

Pārvērtīsim šīs mīlestības un mīlestības attiecībās.

Avots: https://www.forbes.com/sites/lanceeliot/2022/08/08/heres-why-businesses-are-having-a-tumultuous-love-hate-relationship-with-ai-ethics-boards/