AI ētika, kas nepārprotami apšauba cilvēka balss klonēšanu, piemēram, jūsu mirušo radinieku balss klonēšanu, kas paredzēta izmantošanai AI autonomajās sistēmās

Hmm, šķietami gudrs jaunu tehnoloģiju gabals ir iekļāvis sevi un tā veidotāju karstā ūdenī.

Es runāju par AI balstītas cilvēka balss klonēšanas parādīšanos kā jauno tehnoloģiju, kurai izdevās iekļūt pēdējā laika ziņu virsrakstos. Šajā gadījumā uzņēmums ir Amazon un tā arvien progresējošā Alexa.

Manas slejas lasītāji varētu atcerēties, ka es jau iepriekš runāju par nepiedienīgo bulduru, kas notika, kad tika ziņots, ka Aleksa mudināja kādu jaunieti ievietot santīmu elektrības kontaktligzdā (nedariet to!), skatiet manu ziņojumu vietnē saite šeit. Šajā gadījumā, par laimi, neviens netika ievainots, un sekas bija tādas, ka Alexa AI sistēma acīmredzot bija paņēmusi iepriekšēju vīrusu tendenci un bez jebkāda veselā saprāta novērtējuma atkārtoja neprātīgo ieteikumu, kad tika lūgts kaut ko jautru darīt. bērns mijiedarbojas ar Alexa. Tas izceļ AI ētikas bažas par to, ka mūs pārpludina AI, kam pilnībā trūkst veselā saprāta spriešanas, jo īpaši sarežģīta problēma, ar kuru saskaras AI, kas turpina pretoties centieniem iemiesoties AI (manai analīzei par veselā saprāta atvasināšanu uz AI centieni, skat saite šeit).

Jaunākā dublēšana ietver balss klonēšanu, kas pazīstama arī kā balss replikācija. Jaunākās šādas tehnoloģijas un AI rada aktuālus AI ētikas un ētikas apsvērumus. Manu pašreizējo visaptverošo AI ētikas un ētikas AI pārklājumu skatiet saite šeit un saite šeit, tikai nosaukt dažus.

AI balstīta balss klonēšana ir vienkāršs jēdziens.

AI sistēma ir ieprogrammēta, lai audio ierakstītu dažus jūsu izrunātos vārdus. Pēc tam mākslīgais intelekts mēģina aprēķināt jūsu runas modeļus. Pamatojoties uz atklātajiem runas modeļiem, mākslīgais intelekts mēģina raidīt audio runu, kas izklausās tāpat kā jūs. Sarežģītākā daļa ir tāda, ka runa aptver vārdus, kurus jūs iepriekš neesat norādījis kā audio paraugus AI. Citiem vārdiem sakot, AI ir matemātiski jānovērtē, kā jūs varētu runāt vārdus. Tas ietver visas runas īpašības, piemēram, toni, balss paaugstināšanos un pazemināšanos, runas tempu vai ātrumu utt.

Kad dzirdat, kā cilvēks mēģina uzdoties par citu cilvēku, jūs parasti varat saprast, ka centieni ir uzdošanās par citu personu. Īstermiņā, piemēram, ja atveidotājs lieto tikai dažus vārdus, var būt grūti saprast, ka balss nav oriģinālais runātājs. Turklāt, ja atdarinātājs atdarina vārdus, ko sākotnēji runāja patiesībā runāja, pastāv iespēja, ka viņš var noskaņot savu balsi otras personas balsij, jo īpaši šim konkrētajam izteikumam.

Īsums un tieši tādu pašu vārdu dzirde var ļaut kādam diezgan precīzi noteikt uzdošanos.

Izaicinājums ir aptvert vārdus, par kuriem otra persona nav runājusi vai par kuriem uzdotājs nekad nav dzirdējis, ka persona runā šos konkrētos vārdus. Jūs esat zināmā mērā tumsā, mēģinot izdomāt, kā atdarinātā persona būtu teikusi šos vārdus. Labā ziņa ir tā, ka, ja kāds cits, kurš klausās atdarinātāju, arī nezina, kā oriģinālā persona būtu teikusi vārdus, atveidotājs var būt salīdzinoši tālu no patiesās balss un tomēr šķist neparasts un mērķtiecīgs.

Es vēlētos arī uz brīdi izņemt no vienādojuma uzdošanās manieres un fizisko kustību. Ieraugot uzdoto personu, jūs varat sašūpot, ja viņš var saburzīt seju vai vicināt rokas tādā veidā, kas arī atdarina personu, par kuru uzdodas. Papildinātās ķermeņa un sejas norādes mudinās jūsu prātu domāt, ka arī balss ir izsmelta, lai gan tā varētu nebūt. Balss uzdošanās piekritējs uzstātu, ka tikai balss ir jāizmanto kā kritērijs, lai noteiktu, vai balss trāpīgi atdarina personu, par kuru uzdodas.

Jūs noteikti esat redzējuši dažādus dziļi viltotus videoklipus, kas mūsdienās tiek rādīti sociālajos medijos. Kāds gudri pārveido videoklipu, lai videoklipā tiktu parādīta kāda cita seja, pārklājot seju, kas bija kāda cita oriģinālajā ierakstā. To parasti pavada arī dziļa viltošana balsī. Jūs saņemat dubultu neveiksmi, jo videoklips tiek vizuāli mainīts, izmantojot deepfake AI, un audio tiek mainīts, izmantojot deepfake AI.

Diskusijas labad es koncentrējos tikai uz AI balstītām dziļajām viltus audio aspektiem, kas, kā minēts iepriekš, parasti tiek saukti par balss klonēšanu vai balss replikāciju. Daži to bezkaunīgi dēvē par balsi bundžā.

Esmu pārliecināts, ka daži no jums šobrīd mudina, ka mums jau labu laiku ir bijusi iespēja izmantot datorprogrammas balsu klonēšanai. Tas pats par sevi nav nekas jauns. ES piekrītu. Tajā pašā laikā mums ir jāatzīst, ka šīs augsto tehnoloģiju iespējas kļūst arvien labākas. Nu, es saku labāk un labāk, bet varbūt, kā jūs pēc brīža redzēsit, man vajadzētu teikt, ka tas kļūst arvien satraucošāks un satraucošāks.

Turies pie šīs domas.

Neapšaubāmi, balss klonēšanas tehnoloģiskā spēja pilnveidojas. Piemēram, agrāk jums bija "jāapmāca" AI audio replikācijas programma, izrunājot visu stāstu par jauktiem vārdiem. Līdzīgi slavenajai vai bēdīgi slavenajai ātrās brūnās lapsas līnijai, kas pārlēca pāri slinkajam sunim (rinda, kas paredzēta, lai kāds nosegtu visus alfabēta burtus), ir īpaši izstrādāti īsi stāsti, kas satur vārdu sajaukumu, lai liks jums pateikt pietiekami daudz vārdu un pietiekami daudz dažādu vārdu, lai padarītu AI modeļa saskaņošanu daudz vienkāršāku.

Jums, iespējams, bija jāizlasa vairākas vārdu lappuses, bieži iekļaujot vārdus, kurus jums ir grūti izrunāt un pat neesat pārliecināts, ko tie nozīmē, lai pietiekami nodrošinātu AI modeļu saskaņošanu. Tas var aizņemt vairākas minūtes vai dažreiz stundas, lai nodrošinātu AI pietiekami daudz audio, ko izmantot, lai atrastu atšķirīgus jūsu balss modeļus. Ja jūs saīsinātu šo apmācību, pastāv iespēja, ka iegūto balss replikāciju viegli notrieks visi jūsu draugi, kas labi zina jūsu balsi.

Labi, AI izstrādātāju interese toreiz bija vērsta uz to, kā optimizēt audio replicēšanas aspektus. AI celtniekiem patīk izaicinājumi. Viņi esot sirdī optimizētāji. Uzdodiet viņiem problēmu, un viņi centīsies optimizēt neatkarīgi no tā, kur tas varētu novest (es minēju to kā priekšnojautu, kas drīz kļūs skaidrāks).

Atbildi man uz šo:

  • Kāds ir mazākais audio parauga daudzums, kas būtu nepieciešams, lai maksimāli klonētu personas balsi un kura audio paraugs var būt gandrīz jebkura nejauši atļauta vārdu kopa, tomēr balss klonēšana ļauj radīt gandrīz visus vārdus, kas jebkad varētu tikt izrunāti ar mērķauditorijas balsi un skaņu, kas būtībā ir identiska šīs personas balsij sarunvalodas vai citā izvēlētā konteksta vidē?

Tur ir daudz ko izpakot.

Ņemiet vērā, ka vēlaties minimālo audio paraugu, kas maksimāli klonētu balsi, lai AI izteikumi šajā tagad automatizētajā replicētajā balsī šķistu pilnīgi neatšķirami no faktiskās personas. Tas ir sarežģītāk, nekā jūs varētu domāt.

Tas ir gandrīz kā spēļu šovs, kurā jums ir jāmēģina nosaukt dziesmu, pamatojoties uz vismazāko dzirdēto nošu skaitu. Jo mazāk atskaņotas notis, jo grūtāk ir uzminēt, kura dziesma tā ir. Ja jūsu minējums ir nepareizs, jūs zaudējat punktus vai zaudējat spēli. Sākas cīņa par to, vai jums vajadzētu izmantot tikai vienu noti, vismazāko iespējamo pavedienu, taču tad jūsu varbūtība uzminēt dziesmu, domājams, ir ievērojami samazināta. Jo vairāk nošu dzirdat, jo lielāka ir iespēja uzminēt pareizo dziesmu, taču jūs pieļaujat, ka arī citiem konkursantiem ir lielāka iespēja uzminēt.

Atcerieties, ka balss klonēšanas gadījumā mēs runājam arī par noteikto vārdu jēdzienu salīdzinājumā ar jebkuriem vārdiem. Ja cilvēks saka vārdus “Jūs nevarat tikt galā ar patiesību” un mēs vēlamies, lai mākslīgais intelekts atdarinātu vai uzdodas par šo personu, AI, visticamāk, var viegli uztvert modeli. No otras puses, pieņemsim, ka mums ir tikai šie vārdi, ko izrunā šī persona: “Vai tas ir viss, kas jums man jājautā”, un mēs vēlamies izmantot šos vārdus, lai pēc tam AI teiktu: “Jūs nevarat tikt galā ar patiesību”. Es domāju, ka jūs varat redzēt grūtības apmācīt vienu vārdu kopu un ekstrapolēt uz pilnīgi atšķirīgu vārdu kopu.

Vēl viens grūts elements ir runāto vārdu konteksts. Pieņemsim, ka mēs liksim jums ierakstīt teikumu audio, kad esat mierīgs un jūtaties labi. AI veido šos vārdus. Tas var arī ietekmēt jūsu balss mierīgumu. Iedomājieties, ka mēs vēlamies, lai mākslīgais intelekts izliekas, ka tas esat jūs, kad tu kliedz un dusmīgs kā sirsenis. Tas, ka mākslīgais intelekts izkropļo sākotnējo modeli, kļūstot par precīzi dusmīgu jūsu balss versiju, var būt biedējoši.

Kādus minimumus mēs skatāmies?

Šobrīd mērķis ir pārkāpt minūtes atzīmi.

Iegūstiet ierakstītu balsi, kurai jums ir mazāk par minūti audio, un palūdziet AI veikt visu apbrīnojamo balss klonēšanu tikai no šī niecīgā parauga. Es vēlos precizēt, ka gandrīz ikviens var izveidot AI, kas var to izdarīt parasti mazāk nekā vienā minūtē, lai gan iegūtais balss klons ir niecīgs un viegli nosakāms kā nepilnīgs. Es atkal nepārprotami un nelokāmi apliecinu, ka paraugu ņemšanas laiks ir minimāls un tikmēr balss klonēšana ir maksimāla. Dzeltens var sasniegt minimālo iztveršanu, ja balss klonēšanas gadījumā tiem ir arī atļauts būt rupji submaksimāliem.

Šis ir jautrs un aizraujošs tehnoloģisks izaicinājums. Jums varētu rasties jautājums par šīs darbības vērtību vai priekšrocībām. Kādu mērķi mēs meklējam? Kādus ieguvumus cilvēcei mēs varam sagaidīt, spējot tik efektīvi un efektīvi veikt uz AI balstītu balss replikāciju?

Es vēlos, lai jūs pārdomājat šo nopietno jautājumu.

Nepareiza atbilde var netīšām nokļūt putru kaudzē.

Šeit ir kaut kas, kas šķiet optimistisks un pilnīgi pozitīvs.

Pieņemsim, ka mums varētu būt senu slavenu cilvēku, piemēram, Ābrama Linkolna, ieraksti, un mēs varējām izmantot šos putekļainos audio fragmentus, lai izveidotu uz AI balstītu balss klonu. Pēc tam mēs varējām dzirdēt Linkolnu runājam Getisburgas uzrunu tā, it kā mēs būtu tur dienā, kad viņš teica četrus punktus un pirms septiņiem gadiem neaizmirstamu runu. Diemžēl mums nav Linkolna balss audioierakstu (tehnoloģija vēl nepastāvēja), taču mums ir prezidenta Bendžamina Harisona (pirmā no ASV prezidentiem, kam ir balss ieraksts no ) un citi prezidenti pēc tam.

Es domāju, ka mēs visi pamatoti piekritīsim, ka šī īpašā uz AI balstītās balss klonēšanas izmantošana ir pilnīgi piemērota. Patiesībā mēs, iespējams, to vēlētos vairāk nekā tad, ja kāds aktieris šodien mēģinātu izlikties, ka viņi runā kā Linkolns. Domājams, ka aktieris izdomātu, pēc viņu domām, Linkolna patiesā balss skanēja. Tas būtu izdomājums, iespējams, tālu no Linkolna balss. Tā vietā, izmantojot labi kvalificētu AI balss klonēšanas sistēmu, būtu maz argumentu par to, kā patiesi skanēja Linkolna balss. AI būtu faktiski pareizs, vismaz tiktāl, cik labi AI spēj replicēt mērķa balsi.

Kategorijā labestība par AI balss klonēšanu mēs varam gūt panākumus, izmantojot šāda veida lietošanas gadījumu.

Nevēlos būt drūms, taču pat šim šķietami apgrieztajam lietojumam ir negatīvie aspekti.

Kāds izmanto mākslīgā intelekta balss klonēšanas sistēmu, lai noskaidrotu Teodora Rūzvelta (“Tedijs”) balsi, mūsu vērtīgo 26.th Amerikas Savienoto Valstu prezidents, dabas pētnieks, dabas pētnieks, valstsvīrs, rakstnieks, vēsturnieks un gandrīz visur tiek apzīmēts kā cienījama persona. Runas, kuras viņš teica un kurām mums nav vēsturiski saglabājušos audio versiju, tagad varētu “izrunāt” tā, it kā viņš pats šodien runātu. Uzteicams stimuls vēstures studijām.

Pavērsim šo neglītu, lai tikai atklātu tā negatīvās puses.

Mēs izmantojam uz Teddy AI balstīto balss klonu, lai lasītu runu, ko teica ļauns diktators. AI neinteresē, ko tas runā, jo AI nav jūtama sajūta. Vārdi ir vienkārši vārdi vai, pareizāk sakot, tikai skaņas dvesinājumi.

Jūs varētu būt satriekts, ka kāds darīs ko tādu, kas ir tik nepamatots. Kāpēc, pie velna, uz mākslīgo intelektu balstītā slavenā un cienījamā Teodora Rūzvelta klonētā balss tiktu izmantota, lai teiktu runu, ko ne tikai Tedijs sākotnēji neteica, bet arī runā par tēmu, kas ataino kādu nicināma ļaunumu. diktators?

Satriecoši, jūs varētu iesaukties.

Viegli izdarāms, nāk atbilde.

Būtībā viena ļoti svarīga problēma saistībā ar AI balstītu balss replikāciju ir tāda, ka mēs pēkšņi attapsimies ar viltotām runām un izteikumiem, kuriem nav nekāda sakara ar vēsturiskiem faktiem vai precizitāti. Ja tiks izveidots un izplatīts pietiekami daudz no tiem, mēs varētu kļūt neizpratnē par to, kas ir fakts un kas ir izdomājums.

Jūs varat labi redzēt, kā tas var rasties. Izmantojot uz mākslīgo intelektu balstītu balss klonu, kāds veic audioierakstu, kurā Vudro Vilsons uzstājas ar runu, ko viņš patiesībā nekad nav teicis. Tas ir ievietots internetā. Kāds cits dzird ierakstu un uzskata, ka tas ir īsts. Viņi to ievieto citur, minot, ka atraduši šo lielisko Vudro Vilsona vēsturisko ierakstu. Drīzumā skolēni vēstures stundās izmanto audio, nevis lasa runas rakstīto versiju.

Neviens nezina, vai runu teica Vudro Vilsons vai nē. Varbūt tā bija, varbūt nebija, un visi uzskata, ka tam nav īsti nozīmes (nu, tie, kas nav vērsti uz vēsturisko precizitāti un faktiem). Protams, ja runa ir nekaunīga, tas rada nepareizu iespaidu vai dezinformācijas attēlojumu par šo vēsturisko personu. Vēsture un fantastika ir sapludinātas vienā.

Es ceru, ka esat pārliecināts, ka tas ir mīnuss, kas saistīts ar balss klonēšanu, kuras pamatā ir mākslīgais intelekts.

Atkal, mēs jau varam darīt šāda veida lietas, to darot bez jaunākas un uzlabotas AI balstītas balss replikācijas, taču tas kļūs vieglāk izdarīt, un iegūto audio būs ārkārtīgi grūti atšķirt īsto no viltus. Mūsdienās, izmantojot parastās audio producēšanas programmas, parasti varat klausīties izvadi un bieži vien viegli pārliecināties, ka audio ir viltots. Pateicoties mākslīgā intelekta attīstībai, jūs drīz vairs nevarēsit ticēt savām ausīm.

Lai cik slikta būtu vēsturisku personību balss klonēšana, mums ir jādomā par, iespējams, īpaši nežēlīgiem lietojumiem, kas saistīti ar dzīviem mūsdienu cilvēkiem.

Pirmkārt, vai esat kādreiz dzirdējuši par populāru krāpniecību, kurā kāds uzdodas par priekšnieku vai tam līdzvērtīgu personu? Pirms dažiem gadiem bija satraucoša iedoma zvanīt restorānam vai veikalam un izlikties par iestādes priekšnieku. Viltošana nozīmētu, ka darbiniekam liktu darīt smieklīgas lietas, ko viņi bieži vien apzinīgi darīja, maldīgi ticot, ka runā ar savu priekšnieku.

Es nevēlos iegrimt šādās sašutuma pilnās darbībās, bet vēl viens nozīmīgs ir piezvanīt kādam, kurš varētu būt vājdzirdīgs, un izlikties par viņu mazdēlu vai mazmeitu. Uzdotājs mēģina pārliecināt vecvecākus, lai viņš piešķir naudu, lai palīdzētu vai kaut kādā veidā glābtu viņus. Pamatojoties uz uzdoto balsi, vecvecāki tiek maldināti, to darot. nicināms. Apkaunojoši. Skumji.

Mēs drīz ieiesim laikmetā, kurā uz AI balstīta balss klonēšana ļaus steroīdiem izmantot ar balsi saistītu krāpniecību un krāpniecību. AI veiks tik ievērojamu balss replikācijas darbu, ka ikviens, kurš dzird balsi, zvērēs, ka runāja īstā persona.

Cik tālu tas varētu iet?

Daži ir nobažījušies, ka, piemēram, atomu ieroču izlaišana un militārie uzbrukumi varētu notikt, ja kāds izmanto AI balstītu balss klonu, kas maldina citus, liekot noticēt, ka augstākā līmeņa militārpersona ir devusi tiešu pavēli. To pašu varētu teikt par ikvienu, kas ieņem ievērojamu vietu. Izmantojiet izcili precīzu mākslīgā intelekta balss klonu, lai panāktu, ka bankas vadītājs atbrīvo miljoniem dolāru līdzekļos, to darot, jo tiek maldināts, ka viņi runā ar bankas klientu.

Iepriekšējos gados to darīt ar AI ne vienmēr būtu bijis pārliecinošs. Brīdī, kad cilvēks tālruņa otrā galā sāk uzdot jautājumus, AI būs jāatkāpjas no sagatavotā skripta. Šajā brīdī balss klonēšana pasliktinātos, dažreiz radikāli. Vienīgais līdzeklis, lai saglabātu krāpšanu, bija piespiest sarunu atgriezties scenārijā.

Izmantojot mūsdienu mākslīgā intelekta veidu, tostarp dabiskās valodas apstrādes (NLP) progresu, varat atteikties no skripta un, iespējams, AI balss klons runā dabiskā sarunvalodas veidā (tas ne vienmēr notiek, un joprojām ir veidi, kā paklupt AI).

Pirms ķerties pie gaļas un kartupeļiem par savvaļas un vilnas apsvērumiem, kas ir pamatā mākslīgā intelekta balss klonēšanai, noteiksim dažus papildu pamatus par ļoti būtiskām tēmām. Mums ir īsi jāiedziļinās AI ētikā un jo īpaši mašīnmācīšanās (ML) un dziļās mācīšanās (DL) parādīšanās.

Jūs varētu neskaidri apzināties, ka mūsdienās viena no skaļākajām balsīm AI jomā un pat ārpus AI jomas ir aicinājums pēc lielākas ētiskā AI līdzības. Apskatīsim, ko nozīmē atsaukties uz AI ētiku un ētisko AI. Papildus tam mēs izpētīsim, ko es domāju, runājot par mašīnmācīšanos un padziļinātu mācīšanos.

Viens konkrēts mākslīgā intelekta ētikas segments vai daļa, kas ir saņēmusi lielu plašsaziņas līdzekļu uzmanību, ir mākslīgais intelekts, kas demonstrē nevēlamus aizspriedumus un nevienlīdzību. Jūs varētu zināt, ka tad, kad sākās jaunākā AI ēra, bija milzīgs entuziasma uzliesmojums par to, ko daži tagad sauc. AI uz labu. Diemžēl mēs sākām būt liecinieki šim uzliesmojumam AI For Bad. Piemēram, ir atklāts, ka dažādas uz AI balstītas sejas atpazīšanas sistēmas satur rasu un dzimuma aizspriedumus, par ko esmu runājis saite šeit.

Centieni cīnīties pret AI For Bad aktīvi norisinās. Turklāt skaļš juridisks Mēģinot savaldīt pārkāpumus, notiek arī būtisks grūdiens AI ētikas ievērošanai, lai izlabotu AI neģēlību. Domājams, ka mums ir jāpieņem un jāapstiprina galvenie ētiskie AI principi AI izstrādei un izmantošanai, tādējādi samazinot AI For Bad un vienlaikus sludinot un popularizējot vēlamo AI uz labu.

Saistībā ar to es iestājos par mēģinājumu izmantot AI kā daļu no AI problēmu risinājuma, cīnoties pret uguni ar uguni šādā domāšanas veidā. Piemēram, mēs varētu iegult ētiskos AI komponentus AI sistēmā, kas uzraudzīs, kā pārējais AI dara lietas, un tādējādi, iespējams, reāllaikā uztvers jebkādus diskriminējošus centienus. Skatiet manu diskusiju vietnē saite šeit. Mums varētu būt arī atsevišķa AI sistēma, kas darbojas kā AI ētikas monitora veids. AI sistēma kalpo kā pārraugs, lai izsekotu un noteiktu, kad cits AI nonāk neētiskajā bezdibenī (skatiet manu analīzi par šādām iespējām vietnē saite šeit).

Pēc brīža es dalīšos ar dažiem visaptverošiem principiem, kas ir AI ētikas pamatā. Šur tur ir daudz šāda veida sarakstu. Varētu teikt, ka vēl nav vienota universālas pievilcības un vienprātības saraksta. Tā ir nelaimīgā ziņa. Labā ziņa ir tā, ka vismaz ir viegli pieejami AI ētikas saraksti, un tie mēdz būt diezgan līdzīgi. Kopumā tas liek domāt, ka ar sava veida pamatotu konverģenci mēs atrodam ceļu uz vispārēju kopību tam, no kā sastāv AI ētika.

Pirmkārt, īsi apskatīsim dažus vispārējos ētiskā AI priekšrakstus, lai ilustrētu, kam vajadzētu būt ļoti svarīgam ikvienam, kas izstrādā, izmanto vai izmanto AI.

Piemēram, kā to norādījis Vatikāns Roma aicinājums uz AI ētiku un kā esmu padziļināti aprakstījis plkst saite šeit, šie ir viņu identificētie seši galvenie AI ētikas principi:

  • Pārredzamība: Principā AI sistēmām ir jābūt izskaidrojamām
  • Iekļaušana: Ir jāņem vērā visu cilvēku vajadzības, lai ikviens varētu gūt labumu un visiem indivīdiem varētu piedāvāt vislabākos iespējamos apstākļus, lai izpaustos un attīstītos.
  • Atbildība: Tiem, kas izstrādā un ievieš AI izmantošanu, ir jārīkojas atbildīgi un pārredzami
  • objektivitāte: Neveidojiet un nerīkojieties saskaņā ar aizspriedumiem, tādējādi aizsargājot godīgumu un cilvēka cieņu
  • Uzticamība: AI sistēmām jāspēj darboties uzticami
  • Drošība un privātums: AI sistēmām ir jādarbojas droši un jāievēro lietotāju privātums.

Kā norādīja ASV Aizsardzības departaments (DoD) savā Mākslīgā intelekta izmantošanas ētikas principi un kā esmu padziļināti aprakstījis plkst saite šeit, šie ir viņu seši galvenie AI ētikas principi:

  • Atbildīgais: DoD darbinieki veiks atbilstošu spriedumu un rūpību, vienlaikus paliekot atbildīgi par AI iespēju izstrādi, izvietošanu un izmantošanu.
  • Taisnīgs: Departaments veiks apzinātus pasākumus, lai samazinātu neparedzētu AI iespēju novirzi.
  • Izsekojams: Departamenta mākslīgā intelekta iespējas tiks izstrādātas un izvietotas tā, lai attiecīgajam personālam būtu atbilstoša izpratne par tehnoloģijām, izstrādes procesiem un darbības metodēm, kas piemērojamas mākslīgā intelekta spējām, tostarp par pārredzamām un pārbaudāmām metodoloģijām, datu avotiem, kā arī projektēšanas procedūrām un dokumentāciju.
  • Reliable: Departamenta mākslīgā intelekta iespējām būs skaidri, precīzi definēti lietojumi, un šādu iespēju drošība, drošība un efektivitāte tiks pārbaudīta un garantēta noteiktajos lietojumos visā to dzīves ciklā.
  • Pārvaldāms: Departaments izstrādās un izstrādās mākslīgā intelekta iespējas, lai tās varētu izpildīt paredzētās funkcijas, vienlaikus spējot atklāt un izvairīties no neparedzētām sekām, kā arī atslēgt vai deaktivizēt izvietotās sistēmas, kas demonstrē neparedzētu uzvedību.

Esmu arī apspriedis dažādas AI ētikas principu kolektīvās analīzes, tostarp aptvēru pētnieku izstrādāto kopumu, kurā tika pārbaudīta un apkopota daudzu nacionālo un starptautisko AI ētikas principu būtība rakstā “The Global Landscape Of AI Ethics Guidelines” (publicēts). iekšā daba), un ka mans pārklājums pēta plkst saite šeit, kas noveda pie šī stūrakmens saraksta:

  • Caurspīdīgums
  • Taisnīgums un godīgums
  • Ne-ļaunprātība
  • atbildība
  • Privātums
  • Labums
  • Brīvība un autonomija
  • Uzticēties
  • Ilgtspējība
  • cieņa
  • Solidaritāte

Kā jūs varētu tieši nojaust, mēģināt noteikt šo principu pamatā esošo specifiku var būt ārkārtīgi grūti. Vēl jo vairāk, centieni pārvērst šos plašos principus par kaut ko pilnīgi taustāmu un pietiekami detalizētu, lai tos izmantotu AI sistēmu izstrādē, arī ir grūts rieksts. Kopumā ir viegli pamātīt ar roku par to, kas ir AI ētikas priekšraksti un kā tie vispārīgi jāievēro, savukārt AI kodēšanas situācija ir daudz sarežģītāka, ja tai ir jābūt īstai gumijai, kas saskaras ar ceļu.

AI ētikas principi ir jāizmanto AI izstrādātājiem, kā arī tiem, kas pārvalda AI izstrādes centienus, un pat tiem, kas galu galā veic AI sistēmu uzturēšanu un uzturēšanu. Visas ieinteresētās puses visā AI izstrādes un lietošanas dzīves ciklā tiek uzskatītas par ētiskā AI noteikto normu ievērošanu. Tas ir svarīgs akcents, jo parasti tiek pieņemts, ka “tikai kodētāji” vai tie, kas programmē AI, ir pakļauti AI ētikas jēdzieniem. Kā minēts iepriekš, ir nepieciešams ciemats, lai izstrādātu un ieviestu AI, un tam visam ciemam ir jābūt pieredzējušam un jāievēro AI ētikas priekšraksti.

Pārliecināsimies arī par mūsdienu mākslīgā intelekta būtību.

Mūsdienās nav AI, kas būtu jūtīgs. Mums šī nav. Mēs nezinām, vai jutīgais AI būs iespējams. Neviens nevar precīzi paredzēt, vai mēs sasniegsim jutīgu AI, kā arī to, vai jutīgs AI kaut kā brīnumaini spontāni radīsies skaitļošanas kognitīvās supernovas veidā (parasti saukta par singularitāti, skatiet manu pārklājumu vietnē saite šeit).

AI veids, uz kuru es koncentrējos, sastāv no nejūtošā AI, kas mums ir šodien. Ja mēs gribējām mežonīgi spekulēt par jūtīgs AI, šī diskusija varētu virzīties radikāli citā virzienā. Domājams AI būtu cilvēka kvalitātes. Jums jāņem vērā, ka jutīgais AI ir cilvēka kognitīvs ekvivalents. Turklāt, tā kā daži domā, ka mums varētu būt īpaši inteliģents AI, ir iespējams, ka šāds AI varētu būt gudrāks par cilvēkiem.

Turēsim lietas piezemētākas un apsvērsim mūsdienu skaitļošanas nejūtīgo AI.

Saprotiet, ka mūsdienu mākslīgais intelekts nespēj “domāt” tādā pašā veidā kā cilvēka domāšana. Mijiedarbojoties ar Alexa vai Siri, sarunu spējas var šķist līdzīgas cilvēka spējām, taču patiesībā tās ir skaitļošanas iespējas un tām trūkst cilvēka izziņas. Jaunākajā AI laikmetā ir plaši izmantota mašīnmācīšanās (ML) un dziļā mācīšanās (DL), kas izmanto skaitļošanas modeļu saskaņošanu. Tas ir novedis pie AI sistēmām, kas izskatās pēc cilvēkiem līdzīgas tieksmes. Tikmēr mūsdienās nav neviena mākslīgā intelekta, kam būtu veselais saprāts un arī cilvēka spēcīgas domāšanas izziņas brīnums.

ML/DL ir skaitļošanas modeļu saskaņošanas veids. Parastā pieeja ir tāda, ka jūs apkopojat datus par lēmumu pieņemšanas uzdevumu. Jūs ievadāt datus ML/DL datoru modeļos. Šie modeļi cenšas atrast matemātiskos modeļus. Pēc šādu modeļu atrašanas, ja tādi tiek atrasti, AI sistēma izmantos šos modeļus, sastopoties ar jauniem datiem. Uzrādot jaunus datus, pašreizējā lēmuma pieņemšanai tiek piemēroti modeļi, kuru pamatā ir “vecie” vai vēsturiskie dati.

Es domāju, ka jūs varat uzminēt, kurp tas virzās. Ja cilvēki, kas ir pieņēmuši pieņemtus lēmumus, ir iekļāvuši nevēlamus aizspriedumus, pastāv iespēja, ka dati to atspoguļo smalki, bet nozīmīgi. Mašīnmācīšanās vai dziļās mācīšanās skaitļošanas modeļu saskaņošana vienkārši mēģinās attiecīgi matemātiski atdarināt datus. AI radītajā modelēšanā per se nešķiet veselais saprāts vai citi jūtīgi aspekti.

Turklāt AI izstrādātāji, iespējams, arī neapzinās, kas notiek. Arkāniskā matemātika ML/DL var apgrūtināt tagad slēpto aizspriedumu novēršanu. Jūs pamatoti cerat un gaidāt, ka AI izstrādātāji pārbaudīs potenciāli apraktos aizspriedumus, lai gan tas ir sarežģītāk, nekā varētu šķist. Pastāv liela iespēja, ka pat ar salīdzinoši plašu testēšanu ML/DL modeļu atbilstības modeļos joprojām būs novirzes.

Jūs varētu mazliet izmantot slaveno vai bēdīgi slaveno sakāmvārdu par atkritumu savākšanu. Lieta ir tāda, ka tas vairāk līdzinās aizspriedumiem, kas mānīgi tiek iepludināti, AI iegremdējot aizspriedumus. AI lēmumu pieņemšanas algoritms (ADM) aksiomātiski kļūst piekrauts ar nevienlīdzību.

Nav labi.

Atgriezīsimies pie mūsu fokusa uz AI balstītu balss klonēšanu.

Nesenā konferencē Amazon prezentācija bija paredzēta, lai parādītu uz AI balstītas balss klonēšanas vēlamās priekšrocības un izceltu jaunāko vadošo AI, ko Alexa izmanto, lai uzlabotu tās iespējas. Saskaņā ar ziņām, sagatavots piemērs, kam vajadzēja būt sirsnīgam un priecīgam, bija tas, ka bērns palūdz Aleksai, lai viņu vecmāmiņa pabeidz viņiem nolasīt stāstu par Oza zemes burvis. Klātesošajiem tika teikts, ka vecmāmiņa ir aizgājusi mūžībā un ka tas bija līdzeklis, lai bērns pēc būtības atjaunotu saikni ar savu ļoti loloto vecvecāku. Tas viss acīmredzot bija daļa no Amazon izveidotā videoklipa, lai palīdzētu demonstrēt jaunākos Alexa izstrādes komandas AI balss klonēšanas sasniegumus (ietverot funkcijas, kas vēl nav oficiāli izlaistas publiskai lietošanai).

Viena reakcija uz šo piemēru ir tāda, ka mēs varam būt diezgan aizkustināti, ka bērns atkal var dzirdēt savas vecmāmiņas balsi. Jādomā, ka vecmāmiņa jau nebija ierakstījusi pilnīgu stāsta lasījumu, tāpēc mākslīgā intelekta klonēšana veica darbu, lai liktu lietām tā, it kā vecmāmiņa tagad veiktu visu lasīšanu.

Ievērojams un lielisks veids, kā atjaunot saikni ar mīļajiem, kuru vairs nav ar mums.

Ne visi reportieri un analītiķi (un Twitter) bija tik sliecas uz labvēlīgu šī progresa interpretāciju. Daži to apzīmēja kā tīri rāpojošu. Mēģinājums atveidot mirušā tuvinieka balsi bija dīvains un nedaudz savāds pasākums.

Ir daudz jautājumu, piemēram:

  • Vai bērns apjuktu un noticētu, ka mirušais mīļotais joprojām ir dzīvs?
  • Vai tagad bērns varētu tikt ievests kādā nepatīkamā izjokošanā vai krāpniecībā, maldīgi uzskatot, ka vecmāmiņa joprojām ir kopā ar mums?
  • Vai bērns var ciest, dzirdot par mirušo mīļoto, un kļūt izmisumā, kad atkal pietrūkst vecvecākiem, it kā atverot jau nokārtotas emocionālas brūces?
  • Vai bērns domās, ka mirušais var runāt no otras puses, proti, ka šī mistiskā balss, kas šķiet tieši viņa vecmāmiņa, runā ar viņu no kapa?
  • Vai ir iedomājams, ka bērns domās, ka mākslīgais intelekts ir kaut kādā veidā iemiesojis viņa vecmāmiņu, antropomorfējot AI tā, ka bērns uzaugs, ticot, ka mākslīgais intelekts var pilnībā replicēt cilvēkus?
  • Pieņemsim, ka bērns tik ļoti aizraujas ar vecmāmiņas AI replicēto balsi, ka bērns kļūst apsēsts un izmanto balsi visa veida audio klausīšanai?
  • Vai pārdevējs, kas replicē balsi, var izvēlēties izmantot šo balsi citiem, kas izmanto to pašu vispārējo sistēmu, nesaņemot nepārprotamu ģimenes atļauju un tādējādi “gūstot peļņu” no izstrādātās balss?
  • Un tā tālāk.

Ir svarīgi apzināties, ka jūs varat uzburt tikpat daudz negatīvu kā pozitīvo, vai, teiksim, tik daudz pozitīvo, cik negatīvo. Šo AI sasniegumu pamatā ir kompromisi. Aplūkojot tikai vienu monētas pusi, iespējams, ir tuvredzīgi.

Galvenais ir pārliecināties, ka mēs aplūkojam visas šo jautājumu puses. Neesiet apmākušies savās domās. Var būt viegli izpētīt tikai pozitīvos aspektus. Var būt viegli izpētīt tikai negatīvos aspektus. Mums ir jāpārbauda abi un jāizdomā, ko var darīt, lai, cerams, piesaistītu pozitīvos aspektus, un censtos samazināt, novērst vai vismaz mazināt negatīvos.

Zināmā mērā tāpēc AI ētika un ētiskais AI ir tik svarīga tēma. AI ētikas priekšraksti liek mums saglabāt modrību. AI tehnologi dažkārt var būt aizņemti ar tehnoloģijām, jo ​​īpaši ar augsto tehnoloģiju optimizāciju. Viņi ne vienmēr ņem vērā lielākas sabiedrības sekas. Lai radītu atbilstošu AI, ir ļoti svarīgi ievērot AI ētikas domāšanu un to darīt AI attīstībā un darbības jomā.

Papildus AI ētikas izmantošanai ir arī atbilstošs jautājums par to, vai mums vajadzētu pieņemt likumus, kas regulētu dažādus AI lietojumus, piemēram, uz AI balstītas balss klonēšanas funkcijas. Federālā, štata un vietējā līmenī tiek pieņemti jauni likumi, kas attiecas uz AI izstrādes diapazonu un raksturu. Centieni izstrādāt un pieņemt šādus likumus notiek pakāpeniski. AI ētika kalpo vismaz kā pārdomāts pārtraukums.

Tomēr daži apgalvo, ka mums nav vajadzīgi jauni likumi, kas aptver AI, un ka mūsu esošie likumi ir pietiekami. Patiesībā viņi jau iepriekš brīdina, ka, ja mēs ieviesīsim dažus no šiem AI likumiem, mēs nogalināsim zelta zosu, ierobežojot AI progresu, kas sniedz milzīgas sabiedrības priekšrocības. Skatiet, piemēram, manu pārklājumu vietnē saite šeit un saite šeit.

Šajā svarīgās diskusijas posmā es varu derēt, ka jūs vēlaties dažus ilustratīvus piemērus, kas varētu parādīt šo tēmu. Ir īpašs un noteikti populārs piemēru kopums, kas man ir tuvs. Redziet, manā kā MI ekspertam, tostarp ētiskajām un juridiskajām sekām, man bieži tiek lūgts identificēt reālistiskus piemērus, kas parāda AI ētikas dilemmas, lai varētu vieglāk uztvert tēmas nedaudz teorētisko raksturu. Viena no visspilgtākajām jomām, kas spilgti atspoguļo šo ētisko AI problēmu, ir uz AI balstītu patiesi pašbraucošu automašīnu parādīšanās. Tas kalpos kā ērts lietošanas gadījums vai paraugs plašai diskusijai par šo tēmu.

Šeit ir viens ievērības cienīgs jautājums, par kuru ir vērts padomāt: Vai uz mākslīgā intelekta balstītu patiesi pašbraucošu automašīnu parādīšanās kaut ko izgaismo par balss klonēšanu, kuras pamatā ir mākslīgais intelekts, un, ja tā, ko tas parāda?

Ļaujiet man kādu brīdi izpakot jautājumu.

Pirmkārt, ņemiet vērā, ka īstā pašbraucošā automašīnā nav cilvēka vadītāja. Ņemiet vērā, ka patiesas pašbraucošas automašīnas tiek vadītas, izmantojot AI braukšanas sistēmu. Nav nepieciešams cilvēks pie stūres, kā arī nav paredzēts, ka cilvēks varētu vadīt transportlīdzekli. Manu plašo un pastāvīgo informāciju par autonomajiem transportlīdzekļiem (AV) un īpaši pašbraucošām automašīnām sk. saite šeit.

Es vēlētos vēl vairāk precizēt, kas ir domāts, runājot par patiesām pašbraucošām automašīnām.

Izpratne par pašbraucošo automašīnu līmeņiem

Paskaidrosim, ka patiesas pašbraucošas automašīnas ir tās, kurās mākslīgais intelekts vada automašīnu pilnībā un braukšanas uzdevuma laikā netiek sniegta cilvēka palīdzība.

Šie bezvadītāja transportlīdzekļi tiek uzskatīti par 4. un 5. līmeni (skatiet manu skaidrojumu vietnē šī saite šeit), savukārt automašīna, kuras vadītājam ir jādalās braukšanas piepūlē, parasti tiek uzskatīta par 2. vai 3. līmeni. Automašīnas, kas kopīgi veic vadīšanas uzdevumu, ir aprakstītas kā daļēji autonomas, un parasti tajās ir dažādas automatizēti papildinājumi, kas tiek saukti par ADAS (Advanced Driver-Assistance Systems).

Pagaidām vēl nav īstas pašbraucošas automašīnas 5. līmenī, un mēs vēl pat nezinām, vai to būs iespējams sasniegt, kā arī to, cik ilgs laiks būs nepieciešams, lai līdz tam nokļūtu.

Tikmēr 4. līmeņa centieni pakāpeniski mēģina iegūt zināmu saķeri, veicot ļoti šauru un selektīvu koplietošanas ceļu izmēģinājumus, lai gan pastāv strīdi par to, vai šī pārbaude ir jāatļauj per se (mēs visi esam dzīvības vai nāves jūrascūciņas eksperimentā kas notiek uz mūsu lielceļiem un blakusceļiem, daži apgalvo, skatiet manu pārklājumu vietnē šī saite šeit).

Tā kā pusautomātiskajām automašīnām ir nepieciešams autovadītājs, kas izmanto cilvēku, šāda veida automašīnas pieņemšana ievērojami neatšķirsies no parastā transporta līdzekļa vadīšanas, tāpēc per se nav daudz jaunu, lai par tām runātu par šo tēmu (lai gan, kā redzēsit pēc brīža nākamie punkti parasti ir piemērojami).

Pusautonomām automašīnām ir svarīgi, lai sabiedrība tiktu brīdināta par satraucošu aspektu, kas rodas pēdējā laikā, proti, ka, neskatoties uz tiem autovadītājiem, kas turpina publicēt video, kā viņi aizmiguši pie 2. vai 3. līmeņa automašīnas stūres , mums visiem jāizvairās no maldināšanas, uzskatot, ka vadītājs, vadot daļēji autonomu automašīnu, var novērst uzmanību no braukšanas uzdevuma.

Jūs esat atbildīgā persona par transportlīdzekļa vadīšanas darbībām neatkarīgi no tā, cik daudz automatizācijas var iemest 2. vai 3. līmenī.

Pašbraucošas automašīnas un balss klonēšana, pamatojoties uz mākslīgo intelektu

4. un 5. līmeņa īstiem pašpiedziņas transportlīdzekļiem braukšanas uzdevumā nebūs iesaistīts autovadītājs.

Visi pasažieri būs pasažieri.

AI veic braukšanu.

Viens aspekts, kas nekavējoties jāapspriež, ietver faktu, ka AI, kas iesaistīts mūsdienu AI braukšanas sistēmās, nav jūtīgs. Citiem vārdiem sakot, AI kopumā ir datorizētas programmēšanas un algoritmu kolektīvs, un, protams, tas nespēj spriest tāpat kā cilvēki.

Kāpēc šis papildu uzsvars tiek likts uz to, ka AI nav jūtīgs?

Tā kā es gribu pasvītrot, ka, apspriežot AI braukšanas sistēmas lomu, es nepiešķiru AI cilvēka īpašības. Lūdzu, ņemiet vērā, ka mūsdienās pastāv un ir bīstama tendence antropomorfizēt AI. Būtībā cilvēki piešķir mūsdienu cilvēka intelektu mūsdienu AI, neskatoties uz nenoliedzamu un neapstrīdamu faktu, ka šāda AI vēl nav.

Izmantojot šo precizējumu, jūs varat iedomāties, ka AI braukšanas sistēma dabiski kaut kā “nezinās” par braukšanas aspektiem. Braukšana un viss, kas ar to saistīts, būs jāprogrammē kā daļa no pašpiedziņas automašīnas aparatūras un programmatūras.

Iegremdēsimies neskaitāmos aspektos, kas nāk par šo tēmu.

Pirmkārt, ir svarīgi saprast, ka ne visas AI pašbraucošās automašīnas ir vienādas. Katrs autoražotājs un pašpiedziņas tehnoloģiju uzņēmums izmanto savu pieeju, lai izstrādātu pašbraucošas automašīnas. Tādējādi ir grūti sniegt visaptverošus paziņojumus par to, ko AI vadīšanas sistēmas darīs vai nedarīs.

Turklāt ikreiz, kad tiek apgalvots, ka AI vadīšanas sistēma nedara kādu konkrētu lietu, to vēlāk var apsteigt izstrādātāji, kuri faktiski programmē datoru, lai to izdarītu. Soli pa solim AI braukšanas sistēmas tiek pakāpeniski uzlabotas un paplašinātas. Esošais ierobežojums šodien, iespējams, vairs nepastāvēs turpmākajā sistēmas iterācijā vai versijā.

Es ceru, ka tas sniedz pietiekamu atrunu, kas ir pamatā tam, ko es gatavojos stāstīt.

Ieskicēsim scenāriju, kas varētu izmantot uz AI balstītu balss klonēšanu.

Vecāks un viņu bērns iekāpj uz AI balstītā pašbraucošā automašīnā. Viņi dodas uz savu vietējo pārtikas preču veikalu. Paredzams, ka šis brauciens būs salīdzinoši bez starpgadījumiem. Tikai iknedēļas brauciens uz veikalu, lai gan vadītājs ir AI braukšanas sistēma, un vecākiem nav jāvada.

Vecākiem tas ir liels ieguvums. Tā vietā, lai koncentrētos uz stūrēšanu un vadīšanu, vecāki var veltīt savu uzmanību savam bērnam. Viņi var kopā spēlēties autonomajā transportlīdzeklī un pavadīt vērtīgu laiku. Kamēr vecāki parasti tiek novērsti, vadot automašīnu, un, iespējams, kļūst nemierīgi un satraukti, pārvietojoties rosīgās ielās un saskaroties ar citiem trakiem autovadītājiem tuvumā, šeit vecāki par šīm bažām laimīgā kārtā nezina un tikai apburoši mijiedarbojas ar savu dārgo bērnu.

Vecāks runā ar AI braukšanas sistēmu un liek AI aizvest viņus uz pārtikas preču veikalu. Tipiskā scenārijā AI reaģētu, izmantojot neitrālu audio izteikumu, ko jūs varētu dzirdēt, izmantojot mūsdienu Alexa vai Siri. AI varētu atbildēt, norādot, ka pārtikas veikals atrodas 15 minūšu brauciena attālumā. Turklāt mākslīgais intelekts var paziņot, ka pašbraucošā automašīna tos nometīs pašā veikala priekšpusē.

Tā varētu būt vienīgā ar balsi saistītā AI darbība šādā scenārijā. Iespējams, kad pašbraucošā automašīna pietuvojas pārtikas veikalam, mākslīgais intelekts varētu kaut ko izrunāt par galamērķa tuvošanos. Izkāpjot no autonomā transportlīdzekļa, var būt arī balss atgādinājums, ka jāņem līdzi savas lietas.

Esmu paskaidrojis, ka dažas AI vadīšanas sistēmas būs it kā pļāpīgi kaķi. Tie tiks ieprogrammēti, lai raitāk un nepārtraukti mijiedarbotos ar cilvēku braucējiem. Kad jūs iekāpjat kopbraukšanas transportlīdzeklī, kuru vada cilvēks, dažreiz jūs vēlaties, lai vadītājs ir pļāpīgs. Jūs varat ne tikai sveicināties, bet arī pastāstīt par vietējiem laikapstākļiem vai norādīt citas apskates vietas šajā apkaimē. Ne visi vēlēsies pļāpīgo kaķi, tāpēc mākslīgais intelekts ir jāizstrādā tā, lai dialogos iesaistītos tikai tad, kad cilvēks to pieprasa, skatiet manu ziņojumu vietnē saite šeit.

Tagad, kad esmu pabeidzis visu, mainīsim lietas nelielā, bet nozīmīgā veidā.

Izliecieties, ka AI braukšanas sistēmai ir uz AI balstīta balss klonēšanas funkcija. Pieņemsim arī, ka vecāks iepriekš veica mākslīgā intelekta balss klonēšanu, nodrošinot bērna vecmāmiņas audio fragmentu. Pārsteigums, domā vecāks, es likšu AI braukšanas sistēmai runāt tā, it kā tā būtu bērna mirušā vecmāmiņa.

Braucot ar automašīnu uz pārtikas preču veikalu, AI braukšanas sistēma mijiedarbojas ar vecākiem un bērnu, visu laiku izmantojot tikai vecmāmiņas klonēto balsi.

Ko tu par to domā?

Rāpojošs vai patīkami neaizmirstams?

Es uzlabošu lietas. Sagatavojies. Piesprādzē drošības jostu.

Daži uzskata, tāpat kā es, ka mēs galu galā ļausim bērniem pašiem braukt ar AI balstītām pašbraucošām automašīnām, skatiet manu analīzi vietnē saite šeit.

Mūsdienu cilvēku vadītajās automašīnās vienmēr jābūt klāt pieaugušajam, jo ​​likums nosaka, ka pie stūres ir jābūt pieaugušam vadītājam. Praktiskos nolūkos jūs nekad nevarat dabūt bērnu braucošā automašīnā, kas pats atrodas transportlīdzeklī (jā, es zinu, ka tā notiek, piemēram, ievērojams 10 gadus vecs lielas kinozvaigznes dēls, kurš nesen atkāpās. ļoti dārgu automašīnu citā ļoti dārgā automašīnā, bet vienalga tie ir retumi).

Mūsdienu vecāki, iespējams, stingri iebilstu pret to, ka ļautu saviem bērniem braukt ar pašpiedziņas automašīnu, kurā nav pieaugušā, kas kalpotu par uzraugu vai uzraudzītu savus bērnus. Es zinu, ka šķiet gandrīz neiespējami iedomāties, bet es varu derēt, ka tad, kad pašpiedziņas automašīnas būs izplatītas, mēs neizbēgami pieņemsim domu, ka bērni, braucot ar pašbraucošu automašīnu, paliek bez pieaugušajiem.

Apsveriet ērtības faktoru.

Jūs esat darbā, un jūsu priekšnieks mudina jūs paveikt kādu uzdevumu. Jums ir jāpaņem bērns no skolas un jānogādā beisbola treniņos. Jūs esat iestrēdzis starp akmeni un cietu vietu, pārāk nomierinot savu priekšnieku vai nevedāt savu bērnu uz prakses laukumu. Neviens cits, ko jūs zināt, nevar nodrošināt jūsu bērnam liftu. Ja kas, jūs noteikti nevēlaties izmantot kopbraukšanas pakalpojumu, kurā ir cilvēks, jo jūs, protams, uztrauktu tas, ko šis svešais pieaugušais varētu teikt vai darīt, gādājot jūsu bērnam.

Nav problēmu, nav jāuztraucas, vienkārši izmantojiet uz AI balstītu pašbraucošu automašīnu. Jūs attālināti virzāt pašpiedziņas automašīnu, lai dotos pēc jūsu bērna. Izmantojot pašpiedziņas automašīnas kameras, jūs varat redzēt un skatīties, kā jūsu bērns iekāpj autonomajā transportlīdzeklī. Turklāt ir uz iekšu vērstas kameras, un jūs varat vērot savu bērnu visu braukšanas braucienu. Šķiet, ka tas ir drošāk, ja ne pat drošāk, nekā lūgt svešiniekam autovadītājam nodrošināt jūsu bērna pacēlāju. Tomēr daži ir pamatoti nobažījušies par to, ka gadījumā, ja braukšana notiek nepareizi, bērns tiek atstāts sev un neviens pieaugušais nekavējoties nenāk klāt, lai palīdzētu vai sniegtu norādījumus bērnam.

Atmetot daudzās šaubas, pieņemsim, ka tas pats vecāks un bērns, par kuriem es aprakstīju iepriekšējā scenārijā, ir labi, ja bērns dodas izbraucienā bez vecāka klātbūtnes. Vienkārši pieņem, ka tas galu galā ir dzīvotspējīgs scenārijs.

Šeit ir fināla kicker.

Katru reizi, kad bērns brauc ar mākslīgo intelektu balstītā pašbraucošā automašīnā, viņš tiek sveicināts un mijiedarbojas ar mākslīgo intelektu, jo tas izmanto uz AI balstītu balss klonēšanu un atkārto bērna mirušās vecmāmiņas balsi.

Ko jūs domājat par tiem āboliem?

Kad arī vecāks atradās pašbraucošajā automašīnā, mēs varētu attaisnot mākslīgā intelekta balss izmantošanu, jo vecāks ir tur, lai informētu bērnu par to, kas notiek, kad AI audio runā. Bet, kad vecāku nav klāt, mēs tagad pieņemam, ka bērnam ir idilliski labi ar vecmāmiņas balss replikāciju.

Šis noteikti ir viens no tiem pauzes brīžiem, kad nopietni jāpārdomā, vai tas bērnam ir labs vai slikts.

Secinājumi

Veiksim nelielu domu eksperimentu, lai pārdomātu šos svarīgos jautājumus.

Lūdzu, izdomājiet trīs stingri pozitīvs iemesli, kāpēc balss klonēšana ir balstīta uz mākslīgo intelektu.

Es gaidīšu, kamēr tu tos izdomāsi.

Pēc tam stingri izdomājiet trīs negatīvs iemesli, kas kavē AI balstītas balss klonēšanas parādīšanos.

Es pieņemu, ka jūs esat izdomājis dažus.

Es saprotu, ka jūs neapšaubāmi varat izdomāt daudz vairāk iemeslu nekā tikai trīs katrs, kas atbalsta vai neatbalsta šo tehnoloģiju. Vai, jūsuprāt, negatīvais ir lielāks par pozitīvo? Ir tie kritiķi, kuri apgalvo, ka mums vajadzētu atturēties no šādiem centieniem.

Daži vēlas mēģināt bloķēt uzņēmumus no AI balstītas balss klonēšanas, lai gan saprot, ka šī ir viena no klasiskajām grūtībām. Jebkurš uzņēmums, kas pārtrauks to lietot, pastāv iespēja, ka kāds cits uzņēmums sāks to lietot. Pulksteņa iesaldēšana vai šāda veida mākslīgā intelekta nobīde būs gandrīz neiespējama.

Pagaidām pēdējā piezīmē par šo tēmu iedomājieties, kas varētu notikt, ja mēs kādreiz varētu sasniegt saprātīgu AI. Es nesaku, ka tas notiks. Mēs jebkurā gadījumā varam spekulēt un redzēt, kur tas varētu novest.

Pirmkārt, apsveriet ieskatu citātu par runāšanu un balsi. Madlēna Olbraita teica šādi: "Man bija vajadzīgs diezgan ilgs laiks, lai attīstītu balsi, un tagad, kad man tā ir, es neklusēšu."

Ja mēs spējam radīt jūtīgu AI vai kaut kādā veidā jutība rodas, pat ja mēs to tieši neizpaužam, kādai vajadzētu būt šī AI balsij? Pieņemsim, ka tas var izmantot savu balss klonēšanu, kuras pamatā ir mākslīgais intelekts, un tādējādi radīt jebkura cilvēka balsi, izmantojot kādu tīni niecīgu audio iztveršanas fragmentu, kas varētu būt pieejams šī cilvēka izrunātā veidā. Šāds mākslīgais intelekts varētu runāt un maldināt jūs, liekot domāt, ka AI šķietami ir šī persona.

Vēlreiz, iespējams, mākslīgais intelekts vēlēsies iegūt savu balsi un mērķtiecīgi izstrādāt balsi, kas pilnīgi atšķiras no citām cilvēku balsīm, vēloties būt īpaša savā burvīgā veidā.

Dievs, tas atstāj gandrīz bez vārdiem.

Avots: https://www.forbes.com/sites/lanceeliot/2022/07/02/ai-ethics-starkly-questioning-human-voice-cloning-such-as-those-of-your-deceased-relatives- paredzēts-izmantošanai-ai-autonomās-sistēmās/