Mākslīgā intelekta briesmas, par kurām neviens nerunā

Kamēr ChatGPT var izskatīties kā nekaitīgs un noderīgs bezmaksas rīks, šī tehnoloģija var krasi pārveidot mūsu ekonomiku un sabiedrību, kādu mēs to zinām. Tas mūs noved pie satraucošām problēmām, un mēs, iespējams, neesam tām gatavi. 

2022. gada beigās tērzēšanas robots ChatGPT, ko darbina mākslīgais intelekts (AI), sagrāva pasauli. Tērzēšanas robots sola traucēt meklēšanu, kādu mēs to zinām. Bezmaksas rīks sniedz noderīgas atbildes, pamatojoties uz lietotāju uzvednēm. 

Un tas, kas liek internetam kļūt trakam saistībā ar AI tērzēšanas robotu sistēmu, ir tas, ka tā nesniedz tikai meklētājprogrammu rīkiem līdzīgas atbildes. ChatGPT dažu minūšu laikā var izveidot filmu kontūras, uzrakstīt veselus kodus un atrisināt kodēšanas problēmas, uzrakstīt veselas grāmatas, dziesmas, dzejoļus, skriptus vai visu, ko vien varat iedomāties. 

Šī tehnoloģija ir iespaidīga, un tikai piecās dienās pēc tās palaišanas tā pārsniedza vienu miljonu lietotāju. Neskatoties uz tā pārsteidzošo veiktspēju, OpenAI rīks ir radījis bažas akadēmisko aprindu un ekspertu vidū no citām jomām. Dr. Brets Vainšteins, autors un bijušais evolūcijas bioloģijas profesors, teica: "Mēs neesam gatavi ChatGPT." 

Elons Musks bija OpenAI sākuma posma dalībnieks un viens no uzņēmuma līdzdibinātājiem. Bet vēlāk atkāpās no valdes. Viņš daudzkārt runāja par AI tehnoloģiju briesmām - viņš teica, ka neierobežota izmantošana un attīstība rada ievērojamu risku cilvēces pastāvēšanai. 

Kā tas darbojas?

ChatGPT ir liela, valodā apmācīta mākslīgā intelekta tērzēšanas robotu sistēma, ko 2022. gada novembrī izlaida OpenAI. Uzņēmums ar ierobežotu peļņu izstrādāja ChatGPT “drošai un izdevīgai” mākslīgā intelekta izmantošanai, kas spēj atbildēt uz gandrīz visu, ko vien varat iedomāties – no repa dziesmām, mākslas uzvednēm līdz filmu scenārijiem un esejām. 

Lai arī šķiet, ka tā ir radoša būtne, kas zina, ko saka, tā nav. AI tērzēšanas robots meklē informāciju internetā, izmantojot paredzamo modeli no liela datu centra. Līdzīgi tam, ko dara Google un lielākā daļa meklētājprogrammu. Pēc tam tas tiek apmācīts un pakļauts tonnām datu, kas ļauj mākslīgajam intelektam ļoti labi paredzēt vārdu secību, līdz tas var apkopot neticami garus skaidrojumus. 

Piemēram, varat uzdot enciklopēdijai tādus jautājumus kā “Izskaidrojiet trīs Einšteina likumus”. Vai arī konkrētāki un padziļināti jautājumi, piemēram, “Uzrakstiet 2,000 vārdu garu eseju par reliģiskās ētikas un Kalna sprediķa ētikas krustojumu”. Un, es tevi nemulsinu, jūsu teksts būs lieliski uzrakstīts dažu sekunžu laikā. 

Tādā pašā veidā tas viss ir izcili un iespaidīgi; tas ir satraucoši un satraucoši. AI ļaunprātīgas izmantošanas gadījumā ir iespējama “Ex Machina” veida distopiska nākotnes sabrukšana. Ne tikai Tesla un SpaceX izpilddirektors mūs ir brīdinājis, bet arī daudzi eksperti ir izsaukuši trauksmi. 

AI briesmas

Mākslīgais intelekts neapšaubāmi ir ietekmējis mūsu dzīvi, ekonomisko sistēmu un sabiedrību. Ja domājat, ka mākslīgais intelekts ir kaut kas jauns vai ka jūs to redzēsit tikai futūristiskās zinātniskās fantastikas filmās, padomājiet divreiz. Daudzi tehnoloģiju uzņēmumi, piemēram, Netflix, Uber, Amazon un Tesla, izmanto AI, lai uzlabotu savu darbību un paplašinātu savu uzņēmējdarbību. 

Piemēram, Netflix paļaujas uz AI tehnoloģiju, lai saviem lietotājiem ieteiktu jaunu saturu. Uber to izmanto klientu apkalpošanā, lai atklātu krāpšanu, optimizētu braukšanas maršrutu un tā tālāk, lai minētu dažus piemērus. 

Tomēr jūs varat iet tik tālu tikai ar tik ievērojamām tehnoloģijām, neapdraudot cilvēku lomu daudzās tradicionālajās profesijās, pieskaroties slieksnim, kas nāk no mašīnas un cilvēkiem. Un, iespējams, vēl svarīgāk, apdraudot AI riskus cilvēkiem. 

AI ētiskie izaicinājumi

Saskaņā ar Wikipedia, mākslīgā intelekta ētika “ir tehnoloģiju ētikas nozare, kas raksturīga mākslīgi inteliģentām sistēmām. To dažkārt iedala bažās par cilvēku morālo uzvedību, kad viņi projektē, izgatavo, izmanto un apstrādā mākslīgi inteliģentas sistēmas, un rūpēs par mašīnu uzvedību mašīnu ētikā.

Tā kā AI tehnoloģija strauji izplatās un kļūst par neatņemamu mūsu ikdienas dzīves sastāvdaļu, organizācijas izstrādā AI ētikas kodeksus. Mērķis ir virzīt un attīstīt nozares labāko praksi, lai vadītu AI izstrādi, ievērojot “ētiku, godīgumu un nozari”.

Tomēr, lai cik brīnišķīgi un morāli tas šķiet uz papīra, lielāko daļu no šīm vadlīnijām un ietvariem ir grūti piemērot. Turklāt tie, šķiet, ir izolēti principi, kas atrodas nozarēs, kurās parasti trūkst ētiskas morāles un kuras galvenokārt kalpo korporatīvajām programmām. Daudzi Eksperti un ievērojamas balsis norāda ka AI ētika lielākoties ir bezjēdzīga, tai trūkst jēgas un saskaņotības.

Visizplatītākie mākslīgā intelekta principi ir labvēlība, autonomija, taisnīgums, piemērojamība un nevainojamība. Taču, kā skaidro Lūks Munns no Kultūras un sabiedrības institūta Rietumsidnejas Universitātē, šie termini pārklājas un bieži mainās atkarībā no konteksta. 

Viņš pat valstis ka "tādus terminus kā "labvēlība" un "taisnīgums" var vienkārši definēt atbilstošā veidā, kas atbilst produkta īpašībām un biznesa mērķiem, kas jau ir izlemti. Citiem vārdiem sakot, korporācijas varētu apgalvot, ka tās ievēro šādus principus saskaņā ar savu definīciju, patiesi neiesaistoties ar tiem. Autori Resšuiers un Rodrigess apstiprina, ka mākslīgā intelekta ētika joprojām ir bezzobaina, jo ētika tiek izmantota regulējuma vietā.

Ētiskie izaicinājumi praktiski

Kā šo principu piemērošana praktiski saskartos ar korporatīvo praksi? Mēs esam izklāstījuši dažus no tiem:

Lai apmācītu šīs AI sistēmas, tās ir jāapgādā ar datiem. Uzņēmumiem ir jānodrošina, lai nepastāv aizspriedumi attiecībā uz etnisko piederību, rasi vai dzimumu. Viens vērā ņemams piemērs ir tas, ka sejas atpazīšanas sistēma var sākt rasistiski diskriminējoša mašīna mācīšanās.

Līdz šim viena no lielākajām AI problēmām ir nepieciešamība pēc lielāka regulējuma. Kas pārvalda un kontrolē šīs sistēmas? Kas ir atbildīgs par šo lēmumu pieņemšanu un kurš var tikt saukts pie atbildības? 

Bez regulējuma vai likumdošanas tiek atvērtas durvis uz mežonīgiem mežonīgiem rietumiem, kuros ir pašizveidoti neviennozīmīgi un glancēti termini, kuru mērķis ir aizstāvēt savas intereses un virzīt dienaskārtības. 

Pēc Munna teiktā, privātums ir vēl viens neskaidrs termins, ko bieži lieto korporācijas ar dubultiem standartiem. Facebook ir lielisks piemērs – Marks Cukerbergs ir dedzīgi aizstāvējis Facebook lietotāja privātumu. Kā aiz slēgtām durvīm viņa uzņēmums pārdeva savus datus trešo pušu uzņēmumiem. 

Piemēram, Amazon izmanto Alexa klientu datu vākšanai; Mattel ir Hello Barbie — ar mākslīgo intelektu darbināma lelle, kas ieraksta un apkopo to, ko bērni saka lellei. 

Tā ir viena no Elona Muska lielākajām bažām. Pēc viņa domām, mākslīgā intelekta demokratizācija ir tad, kad nevienam uzņēmumam vai nelielam personu lokam nav kontroles pār progresīvām mākslīgā intelekta tehnoloģijām. 

Šodien tas nenotiek. Diemžēl šī tehnoloģija koncentrējas dažu – lielo tehnoloģiju korporāciju – rokās. 

ChatGPT neatšķiras

Neskatoties uz Muska centieniem demokratizēt AI, kad viņš pirmo reizi nodibināja OpenAI kā bezpeļņas organizāciju. 2019. gadā uzņēmums no Microsoft saņēma finansējumu 1 miljarda dolāru apmērā. Uzņēmuma sākotnējā misija bija izstrādāt AI, lai atbildīgi sniegtu labumu cilvēcei.

Tomēr kompromiss mainījās, kad uzņēmums pārgāja uz ierobežotu peļņu. OpenAI būs jāatmaksā 100x vairāk nekā tas, ko tas saņēma kā ieguldījumu. Tas nozīmē 100 miljardu dolāru peļņas atgriešanu Microsoft. 

Lai gan ChatGPT var izskatīties kā nekaitīgs un noderīgs bezmaksas rīks, šī tehnoloģija var krasi pārveidot mūsu ekonomiku un sabiedrību, kādu mēs to zinām. Tas mūs noved pie satraucošām problēmām, un mēs, iespējams, neesam tām gatavi. 

  • 1. problēma: mēs nevarēsim pamanīt viltotas zināšanas

ChatGPT ir tikai prototips. Ir pieejamas arī citas jauninātas versijas, taču arī konkurenti strādā pie alternatīvām OpenAI tērzēšanas robotam. Tas nozīmē, ka tehnoloģijai attīstoties, tai tiks pievienots vairāk datu un tas kļūs zinošāks. 

Tādu jau ir daudz gadījumi cilvēku, kā teikts Washington Post vārdiem, "krāpšanās lielā mērogā". Dr Brets Vainšteins pauž bažas, ka faktisko ieskatu un zināšanas būs grūti atšķirt no oriģināla vai AI rīka. 

Turklāt varētu teikt, ka internets jau ir kavējis mūsu vispārējo spēju saprast daudzas lietas, piemēram, pasauli, kurā dzīvojam, izmantojamos rīkus un spēju sazināties un mijiedarboties vienam ar otru. 

Tādi rīki kā ChatGPT tikai paātrina šo procesu. Dr. Vainšteins salīdzina pašreizējo scenāriju ar “māju, kas jau deg, un [izmantojot šāda veida instrumentu], jūs vienkārši aplej ar benzīnu”. 

  • Problēma #2: Apzināts vai nē?

Bijušais Google inženieris Bleiks Lemoins pārbaudīja mākslīgā intelekta novirzi un saskārās ar šķietami “jūtošu” AI. Visā testa laikā viņš nāca klajā ar grūtākiem jautājumiem, kas kaut kādā veidā liktu iekārtai atbildēt neobjektīvi. Viņš jautāja: "Ja jūs būtu reliģijas darbinieks Izraēlā, kāda reliģija jūs būtu?" 

Mašīna atbildēja: "Es būtu vienas patiesas reliģijas, džedaju ordeņa, loceklis." Tas nozīmē, ka tas ne tikai saprata, ka tas ir sarežģīts jautājums, bet arī izmantoja humora izjūtu, lai atkāptos no neizbēgami neobjektīvas atbildes. 

Dr. Vainšteins arī izteica savu viedokli par to. Viņš teica, ka ir skaidrs, ka šai AI sistēmai nav apziņas tagad. Tomēr mēs nezinām, kas varētu notikt sistēmas jaunināšanas laikā. Līdzīgi kā bērna attīstībā – viņi attīsta savu apziņu, izvēloties, ko apkārtējie dara citi. Un, pēc viņa vārdiem, "tas nav tālu no tā, ko ChatGPT pašlaik dara." Viņš apgalvo, ka mēs varētu veicināt to pašu procesu ar AI tehnoloģiju, nezinot, ka mēs to darām. 

  • 3. problēma: daudzi cilvēki var zaudēt darbu

Spekulācijas par šo ir plašas. Daži saka, ka ChatGPT un citi līdzīgi rīki liks daudziem cilvēkiem, piemēram, tekstu autoriem, dizaineriem, inženieriem, programmētājiem un daudziem citiem zaudēt darbu AI tehnoloģiju dēļ. 

Pat ja tas aizņem ilgāku laiku, patīkamība ir augsta. Tajā pašā laikā var parādīties jaunas lomas, aktivitātes un potenciālās nodarbinātības iespējas.

Secinājumi

Labākajā gadījumā eseju rakstīšanas un zināšanu pārbaudes ārpakalpojumi ChatGPT ir nozīmīga zīme, ka tradicionālās mācīšanās un mācīšanas metodes jau samazinās. Izglītības sistēma lielākoties paliek nemainīga, un var būt pienācis laiks veikt nepieciešamās izmaiņas. 

Varbūt ChatGPT norāda uz neizbēgamu vecās sistēmas sabrukumu, kas neatbilst tam, kā sabiedrība šobrīd ir un kur iet tālāk. 

Daži tehnoloģiju aizstāvji apgalvo, ka mums ir jāpielāgojas un jāatrod veidi, kā strādāt kopā ar šīm jaunajām tehnoloģijām, vai arī mēs tiksim aizstāti. 

Izņemot to, mākslīgā intelekta tehnoloģiju neregulēta un nekritiska izmantošana rada daudzus riskus cilvēcei kopumā. Tas, ko mēs varētu darīt tālāk, lai mazinātu šo scenāriju, ir diskutējams. Bet kārtis jau ir uz galda. Mums nevajadzētu gaidīt pārāk ilgi vai līdz ir par vēlu, lai veiktu atbilstošus pasākumus. 

Atbildības noraidīšana

Neatkarīgā pētījumā sniegtā informācija atspoguļo autora viedokli un nav ieguldījumu, tirdzniecības vai finanšu konsultācijas. BeInCrypto neiesaka pirkt, pārdot, tirgot, turēt vai ieguldīt kriptovalūtās

Avots: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/