Vai Elonam Maskam var izdoties izstrādāt ģeneratīvu AI tērzēšanas GPT Knockoff “TruthGPT”, kas vienmēr būtu stoiski patiess, jautā AI ētika un AI likums

Pie kajītes durvīm klauvē.

Vai mums vajadzētu atvērt durvis?

Filmas parasti liek domāt, ka mums nevajadzētu ļaut ziņkārībai pārņemt mūs, proti, mums nevajadzētu pilnībā atvērt durvis. Tā teikt, izvēle atstāt durvis aizvērtas, šķiet, neradīs daudz cienīgu stāstu. Šķiet, ka mūs velk uztraukums un nezināmais.

Tātad, ejam uz priekšu un atveram durvis.

Šajā konkrētajā gadījumā es runāju par kādu jaunu mākslīgā intelekta (AI) jomu, kas paredz labus laikus vai sliktākos laikus mums visiem. Situācija potenciāli ietver AI nākotni. Un varētu svinīgi spekulēt, ka AI nākotne ietver diezgan dramatiskas sekas, tostarp šķietami veidojot sabiedrības nākotni un cilvēces likteni.

Lūk, darījums.

Saskaņā ar jaunākajām ziņām, Īlons Masks, reizēm bagātākais cilvēks pasaulē, ir meklējis labākos mākslīgā intelekta pētniekus, kas nāktu klajā ar jaunu AI projektu, ko viņš plāno. Klusi tiek uzrunāti dažādi AI izstrādātāji un AI zinātnieki. Klauvējumi pie viņu durvīm acīmredzot sniedz lielu solījumu un potenciāli ienesīgas ziņas.

Tiek uzskatīts, ka pagaidām neizpaužamās mākslīgā intelekta iniciatīvas būtība ir plaši un mežonīgi populārā ChatGPT, ko OpenAI izlaida novembrī, izslēgšana. Gandrīz noteikti esat dzirdējis vai redzējis kliedzošus virsrakstus par ChatGPT. Īsi paskaidrošu vairāk par to, kas ir ChatGPT. Jums arī jāzina, ka ChatGPT ir AI veida piemērs, kas pazīstams kā Ģeneratīvais AI. Mūsdienās ir daudz ģeneratīvu AI lietotņu. ChatGPT ir vislielākais publiskais profils, un šķiet, ka to zina visi, pat varbūt tie, kas kaut kādā veidā dzīvo alā.

Šeit ir piemērs ziņojumam par šo daļēji slepeno, strauji augošo sāgu:

  • "Īlons Masks pēdējo nedēļu laikā ir vērsies pie mākslīgā intelekta pētniekiem, lai izveidotu jaunu pētniecības laboratoriju, lai izstrādātu alternatīvu ChatGPT, augsta līmeņa tērzēšanas robotam, ko izveidojis startup OpenAI, liecina divi cilvēki, kuriem ir tiešas zināšanas par centieniem, un trešā persona, kas informēta. par sarunām” (Informācija, “Fighting 'Woke AI”, Musk Recruits Team to Develop OpenAI Rival”, Džons Viktors un Džesika E. Lesina, 27. gada 2023. februāris).

Jūsu pirmā doma varētu būt tāda, ka, ja Īlons Masks vēlas izveidot ChatGPT izspēli, tas ir atkarīgs no viņa un kā viņš vēlas tērēt savu naudu. Veiksmi. Viņš vienkārši papildinās jau esošo un pieaugošo ģeneratīvo AI lietotņu klāstu. Varbūt viņš nopelnīs papildu bagātību, izmantojot savu pašmāju ChatGPT versiju. Vai varbūt tā būs liela brēka, un nelielais robs viņa milzīgajā bagātībā no pieticīgi dārgās nodarbošanās būs līdzīgs noapaļošanas kļūdai grāmatvedības nodaļā.

Tā vietā, lai smagi klauvētu pie durvīm, iespējams, tas ir vairāk kā pieklājīgs pieskāriens pie durvīm.

Gatavojieties pagriezienam.

Tiek uzskatīts, ka Īlons Masks vēlas satricināt mūsdienu ģeneratīvo AI lietotņu pamatu un atjaunot dažus būtiskus aspektus, kā tās darbojas un ko tās ražo. Kā es īsi paskaidrošu šeit, izplatīta un bona fide šauba par pašreizējo ģeneratīvo AI ir tāda, ka tas var radīt kļūdas, viltus un tā sauktās AI halucinācijas. Ikviens, kurš ir izmantojis ģeneratīvo AI, neapšaubāmi ir saskāries ar šīm satraucošajām problēmām. Acīmredzot Īlons Masks cer samazināt un, iespējams, kaut kā novērst šāda veida anomālijas un problemātiskas tieksmes.

Tas šķiet nepārprotami vērtīgs un godājams tieksme. Patiesībā, lūdzu, ziniet, ka gandrīz vai varbūt es varu teikt, ka visi ģeneratīvie AI izstrādātāji ļoti cenšas samazināt izvadīto kļūdu, nepatiesību un AI halucināciju iespējamību. Jums būtu grūti atrast kādu saprātīgu dvēseli, kas uzstātu, ka šīs kļūdas, viltus un mākslīgā intelekta halucinācijas ir jāiekļaujas ģeneratīvajā AI.

Nesniedzot pārāk plašu paziņojumu, ir diezgan vispārēja vienošanās, ka ar ģeneratīvā AI slimībām, kas saistītas ar kļūdu, nepatiesību un AI halucināciju radīšanu, ir stingri, neatlaidīgi un stingri jācīnās. Mērķis ir pielāgot, pārveidot, pilnveidot, kapitāli remontēt vai vienā vai citā AI tehnoloģiskā veidā atrisināt un atrisināt šo problēmu.

Katra diena, kad ģeneratīvais AI turpina izvadīt kļūdas, viltus un AI halucinācijas, ir slikta diena gandrīz ikvienam. Cilvēki, kas izmanto ģeneratīvo AI, noteikti nebūs apmierināti ar šiem netīrajiem rezultātiem. Cilvēki, kuri paļaujas uz vai ir jāizmanto netīrās izejas, var kļūdaini atkarīgi no kaut kā nepareiza vai, vēl ļaunāk, novirzīt viņus apdraudošā virzienā.

AI veidotāji, kas mēģina izveidot biznesu no ģeneratīvas AI, tikmēr ir pakļauti potenciālam juridiskam riskam, ko rada tie, kas tiek aizķerti, paļaujoties uz bojātiem rezultātiem. Gandrīz noteikti drīz sāksies tiesas prāvas par zaudējumu atlīdzināšanu. Mēs varētu paredzēt, ka regulatori izvēlēsies svērt, un varētu tikt pieņemti jauni AI likumi, lai ieviestu juridisku pavadu ģeneratīvajam AI. saite šeit. Turklāt cilvēki galu galā var kļūt tik ļoti apbēdināti, ka mākslīgā intelekta veidotāju reputācija tiek nopietni aptraipīta un ģeneratīvais mākslīgais intelekts tiek ātri sabojāts.

Labi, tāpēc mēs zinām, ka mākslīgā intelekta veidotāji un AI pētnieki drudžaini cenšas izgudrot, izstrādāt, izveidot un ieviest AI tehnoloģiskās burvības, lai novērstu šīs šausmīgās slimības, kas saistītas ar mūsdienu ģeneratīvajām mākslīgā intelekta slimībām, ir drosmīga patiesība. Īlons Masks būtu jāpieņem kolektīvā. Jo vairāk, jo labāk. Lai pieradinātu šo zvēru, būs vajadzīgs daudz AI talantu un naudas. Īlona Maska pievienošana šķiet optimistiska un uzmundrinoša zīme, ka, iespējams, pareizais daudzums raķešu zinātnes, naudas un apņēmības atradīs AI ārstēšanu.

Tomēr pagrieziens rodas, kad sākat atvērt durvis, lai redzētu, kas tur stāv.

Diezgan un kā parasti īsajā Elona Muska tvītā, kas notika 17. gada 2023. februārī, mēs guvām šādu domājamo pavedienu:

  • “Mums ir nepieciešams TruthGPT”

Tieši tāpēc daži izlemj, ka varbūt durvis ir jāaizsit un jāpanaglo ciet.

Kāpēc tā?

Daži pauž bažas par to, ka iecerētā TruthGPT pamatā esošā “patiesība” varētu būt ģeneratīva AI, kas ir izstrādāta, pamatojoties uz un rada tikai rezultātus, pamatojoties tikai uz patiesība kas stingri atbilst viena cilvēka uzskatiem par pasauli. Jā, rokraksts ir tāds, ka mēs iegūsim ģeneratīvu AI lietotni, kas izstaro patiesību saskaņā ar Elonu Masku.

Satraucoši, daži saka.

Pārdroši un pavisam satraucoši, daži mudina.

Tūlītēja replika ir tāda, ka, ja viņš vēlas izveidot savu TruthGPT, neatkarīgi no tā, ko tas veido, viņa nauda ir jātērē. Cilvēki vai nu izvēlēsies to izmantot, vai arī neizmantos. Tiem, kas to izmanto, jābūt pietiekami vērīgiem, lai saprastu, ar ko viņi nokļūst. Ja viņi vēlas iegūt rezultātus no šī īpašā ģeneratīvā AI varianta, kas, iespējams, ir veidots saskaņā ar Elona Maska pasaules uzskatu, tās ir viņu tiesības to meklēt. Stāsta beigas. Pāriet tālāk.

Oho, ir pretarguments, jūs gatavojat cilvēkus šausmīgai un biedējošai ieslodzījumam. Būs cilvēki, kuri nesapratīs, ka TruthGPT ir kāda Elona Maska izstrādāta ģeneratīva AI lietotne. Viņi iekritīs garīgajā slazdā, pieņemot, ka šis ģeneratīvais AI ir aiz borta. Patiešām, ja nosaukums paliek “TruthGPT” (vai līdzīgs), jūs, protams, uzskatītu, ka tas ir ģeneratīvs AI, kam ir absolūtā patiesība pastāstīt iznākušajās esejās un tekstā.

Varbūt mums kā sabiedrībai nevajadzētu ļaut tiem, kas nenojauš, iekrist šādos slazdos, viņi brīdinātu.

Ļaujot šāda veida ģeneratīvai AI lietotnei peldēt apkārt un to izmantot visdažādākie cilvēki, radīsies haoss. Cilvēki interpretēs šīs TruthGPT rezultātus kā svētu “patiesību”, pat ja iznākušās esejas ir pilnas ar kļūdām, nepatiesībām, mākslīgā intelekta halucinācijām un visa veida nepatīkamiem aizspriedumiem. Turklāt, pat ja tiek apgalvots, ka šim ģeneratīvā AI variantam nebūs kļūdu, nepatiesību un AI halucināciju, kā mēs varam zināt, ka rezultātā šķietami attīrītais AI nesaturēs nepamatotus aizspriedumus, kā arī mānīgu dezinformācijas un dezinformācija?

Es domāju, ka jūs varat redzēt alus strīdus un neskaidrības.

Uz brīvā tirgus pamata Īlonam Maskam acīmredzot būtu jāspēj izveidot jebkāda veida ģeneratīvo AI, ko viņš vēlas izveidot. Tikai tāpēc, ka citi varētu neatbalstīt viņa versiju par “patiesību”, tam nevajadzētu liegt viņam virzīties uz priekšu. Ļaujiet viņam darīt savu. Iespējams, ir jāiekļauj brīdinājuma ziņojums vai kāds cits paziņojums, kad kāds to izmanto, lai informētu, ko viņi izvēlas palaist. Tomēr cilvēkiem ir jābūt atbildīgiem par savām darbībām, un, ja viņi izvēlas izmantot TruthGPT, lai tā būtu.

Pagaidiet sekundi, un atskan vēl viena replika. Pieņemsim, ka kāds ir izveidojis ģeneratīvu AI lietotni, kas bija paredzēta ļaundarīšanai. Mērķis bija samulsināt cilvēkus. Cerība bija satracināt un pamudināt cilvēkus. Vai mēs kā sabiedrība pieņemtu šāda veida ģeneratīvu AI? Vai mēs vēlamies atļaut AI lietotnes, kas varētu provocēt cilvēkus, graujot viņu garīgo veselību un, iespējams, pamudinot viņus uz nelabvēlīgām darbībām?

Smiltīs ir jābūt līnijai. Kādā brīdī mums jāsaka, ka daži ģeneratīvā AI veidi ir pretīgi un tos nevar atļaut. Ja mēs ļausim izveidot un izmantot nevaldāmu ģeneratīvo AI, mūs visus neizbēgami piemeklēs galīgs posts un drūmums. AI lietotni izmantos ne tikai tie. Tiks negatīvi ietekmēts viss un visi pārējie, kas radīsies ap AI lietotni un ir saistīti ar to.

Tas šķiet pārliecinošs arguments.

Lai gan galvenais pamatojums ir tas, ka attiecīgajam ģeneratīvajam AI ir jābūt tik satraucošam, ka mēs pārliecinoši uzskatītu, ka tā novēršana vai pilnīga apturēšana iepriekš būtu objektīvi nepieciešama. Tas rada arī virkni citu sarežģītu jautājumu. Vai mēs varam iepriekš paziņot, ka ģeneratīvais AI varētu būt tik zvērīgs, ka to vispār nevar atļaut izveidot? Dažiem tas šķiet pāragri. Lai pieņemtu tik smagu lēmumu, jums vismaz jāgaida, līdz sāk darboties ģeneratīvais AI.

Pamostieties, daži dedzīgi atbild, jūs neprātīgi izlaižat zirgu no šķūņa. Briesmas un postījumi, ko radīs atraisītais mākslīgais intelekts, palaists zirgs, mīdīs mūs visus. Ģeneratīva AI lietotne varētu būt kā klasiska dilemma, mēģinot ielikt džins atpakaļ pudelē. Jūs, iespējams, nevarēsit to izdarīt. Tā vietā vislabāk ir turēt džinsu aizslēgtā vietā vai nodrošināt, lai zirgs stingri turas kūtī.

Tā ir potenciāla viesuļvētra uz mūsu sliekšņa, un durvis var atvērties neatkarīgi no tā, ko mēs uzskatām par saprātīgu.

Viena lieta, ko mēs noteikti varam darīt, ir vispirms izpētīt, kas a TruthGPT ģeneratīvā AI mahinācijas stils varētu būt. Šodienas slejā es darīšu tieši to. Apskatīšu arī izteikto iebildumu argumentēto pamatojumu, kā arī apsvēršu dažādus līdzekļus un rezultātus. Šajā diskusijā dažkārt tiks iekļauta atsauce uz AI lietotni ChatGPT, jo tā ir ģeneratīvā AI 600 mārciņu smaga gorilla, taču ņemiet vērā, ka ir daudz citu ģeneratīvo AI lietotņu, un to pamatā parasti ir tie paši vispārējie principi.

Tikmēr jums varētu rasties jautājums, kas ir ģeneratīvais AI.

Vispirms apskatīsim ģeneratīvā AI pamatprincipus un tad varēsim rūpīgi aplūkot aktuālos jautājumus.

Tajā visā ir iekļauti daudzi AI ētikas un AI tiesību apsvērumi.

Lūdzu, ņemiet vērā, ka tiek veikti centieni, lai mākslīgā intelekta lietotņu izstrādē un darbībā ieviestu ētiskos AI principus. Arvien lielāks kontingents norūpējušos un kādreizējo AI ētikas speciālistu cenšas nodrošināt, lai centienos izstrādāt un pieņemt AI tiktu ņemts vērā AI uz labu un novēršot AI For Bad. Tāpat ir ierosināti jauni mākslīgā intelekta likumi, kas tiek izmantoti kā iespējamie risinājumi, lai neļautu AI centieniem aizskart cilvēktiesības un tamlīdzīgi. Manu pastāvīgo un plašo AI ētikas un AI likumu izklāstu skatiet saite šeit un saite šeit, tikai nosaukt dažus.

Tiek izstrādāti un izplatīti ētiskie AI priekšraksti, lai, cerams, nepieļautu, ka sabiedrība nonāk neskaitāmos AI izraisošos slazdos. Lai iegūtu informāciju par ANO mākslīgā intelekta ētikas principiem, ko ar UNESCO palīdzību ir izstrādājušas un atbalstījušas gandrīz 200 valstis, sk. saite šeit. Līdzīgā veidā tiek pētīti jauni mākslīgā intelekta likumi, lai mēģinātu noturēt AI vienmērīgā līmenī. Viens no jaunākajiem uzņemumiem sastāv no piedāvāto kopu AI tiesību akts ko ASV Baltais nams nesen izlaida, lai noteiktu cilvēktiesības AI laikmetā, sk saite šeit. Ir nepieciešams ciemats, lai noturētu AI un AI izstrādātājus uz pareizā ceļa un atturētu no mērķtiecīgiem vai nejaušiem nepamatotiem centieniem, kas varētu apdraudēt sabiedrību.

Šajā diskusijā es iekļaušu ar AI ētiku un AI likumu saistītus apsvērumus.

Ģeneratīvā AI pamati

Visplašāk zināmais ģeneratīvā AI gadījums ir AI lietotne ar nosaukumu ChatGPT. ChatGPT ienāca sabiedrības apziņā novembrī, kad to izlaida mākslīgā intelekta pētījumu firma OpenAI. Kopš tā laika, kad ChatGPT ir ieguvis lielus virsrakstus un pārsteidzoši pārsniedzis tai atvēlētās piecpadsmit slavas minūtes.

Es domāju, ka jūs, iespējams, esat dzirdējuši par ChatGPT vai varbūt pat zināt kādu, kas to ir izmantojis.

ChatGPT tiek uzskatīta par ģeneratīvu AI lietojumprogrammu, jo tajā tiek ievadīts kāds teksts no lietotāja un pēc tam ģenerē vai sagatavo izlaidumu, kas sastāv no esejas. AI ir teksta pārveidošanas ģenerētājs, lai gan es aprakstu AI kā teksta pārveidošanas eseju ģeneratoru, jo tas vieglāk izskaidro, kam tas parasti tiek izmantots. Varat izmantot ģeneratīvo mākslīgo intelektu, lai sacerētu garas kompozīcijas, vai arī varat to iegūt, lai sniegtu diezgan īsus, saturīgus komentārus. Tas viss ir pēc jūsu solīšanas.

Viss, kas jums jādara, ir jāievada uzvedne, un AI lietotne jums ģenerēs eseju, kas mēģinās atbildēt uz jūsu uzvedni. Sacerētais teksts šķitīs tā, it kā eseja būtu rakstīta ar cilvēka roku un prātu. Ja ievadītu uzvedni ar tekstu “Pastāstiet man par Ābrahamu Linkolnu”, ģeneratīvā AI sniegs jums eseju par Linkolnu. Ir arī citi ģeneratīvā AI režīmi, piemēram, teksta pārvēršana mākslā un teksta pārveide video. Šeit es koncentrēšos uz teksta pārvēršanas variantu.

Jūsu pirmā doma varētu būt tāda, ka šī ģenerēšanas spēja nešķiet tik liela problēma eseju veidošanā. Jūs varat viegli veikt tiešsaistes meklēšanu internetā un viegli atrast tonnas eseju par prezidentu Linkolnu. Ģeneratīvā mākslīgā intelekta gadījumā ir tas, ka ģenerētā eseja ir salīdzinoši unikāla un nodrošina oriģinālu kompozīciju, nevis kopiju. Ja jūs mēģinātu kaut kur tiešsaistē atrast AI radīto eseju, jūs to diez vai to atklātu.

Ģeneratīvā AI ir iepriekš apmācīta, un tajā tiek izmantots sarežģīts matemātisks un skaitļošanas formulējums, kas izveidots, pārbaudot rakstīto vārdu un stāstu modeļus visā tīmeklī. Pārbaudot tūkstošiem un miljonu rakstītu fragmentu, mākslīgais intelekts var izspiest jaunas esejas un stāstus, kas ir sajaukums ar atrasto. Pievienojot dažādas varbūtības funkcionalitātes, iegūtais teksts ir diezgan unikāls salīdzinājumā ar apmācību komplektā izmantoto.

Pastāv daudzas bažas par ģeneratīvo AI.

Viens būtisks mīnuss ir tas, ka uz ģeneratīvi balstītas AI lietotnes veidotajās esejās var būt iegulti dažādi nepatiesi fakti, tostarp acīmredzami nepatiesi fakti, maldinoši attēloti fakti un šķietami fakti, kas ir pilnībā izdomāti. Šos izdomātos aspektus bieži sauc par formu AI halucinācijas, izteiciens, kas man nepatīk, bet diemžēl šķiet, ka tā tik un tā kļūst populāra (sīkāku skaidrojumu par to, kāpēc šī terminoloģija ir draņķīga un nepiemērota, skatiet manā ziņojumā vietnē saite šeit).

Vēl viena problēma ir tāda, ka cilvēki var viegli uzņemties atzinību par ģeneratīvu AI veidotu eseju, neskatoties uz to, ka viņi paši nav sastādījuši eseju. Iespējams, esat dzirdējuši, ka skolotāji un skolas ir diezgan noraizējušās par ģeneratīvu AI lietotņu parādīšanos. Studenti var izmantot ģeneratīvo AI, lai rakstītu viņiem piešķirtās esejas. Ja skolēns apgalvo, ka eseja ir sarakstīta ar viņu pašu roku, ir maza iespēja, ka skolotājs spēs noteikt, vai tā ir viltota ar ģeneratīvo AI. Manu analīzi par šo studentu un skolotāju mulsinošo aspektu skatiet manā pārskatā vietnē saite šeit un saite šeit.

Sociālajos medijos ir bijušas dažas neprātīgas pretenzijas par Ģeneratīvais AI apgalvojot, ka šī jaunākā AI versija patiesībā ir jūtīgs AI (nē, viņi kļūdās!). AI ētikas un mākslīgā intelekta likuma pārstāvji ir īpaši noraizējušies par šo plaukstošo izplatīto apgalvojumu tendenci. Jūs varētu pieklājīgi teikt, ka daži cilvēki pārspīlē mūsdienu AI spējas. Viņi pieņem, ka AI ir iespējas, kuras mēs vēl neesam spējuši sasniegt. Tas ir neveiksmīgi. Vēl ļaunāk, viņi var ļaut sev un citiem nonākt šausmīgās situācijās, jo tiek pieņemts, ka mākslīgais intelekts būs jūtīgs vai līdzīgs cilvēkam, lai varētu rīkoties.

Neantropomorfizēt AI.

Šādi rīkojoties, jūs nonāksit lipīgā un smagnējā paļaušanās slazdā, kas paredz, ka mākslīgais intelekts darīs lietas, ko tas nespēj veikt. Ņemot to vērā, jaunākais ģeneratīvā AI ir salīdzinoši iespaidīgs ar to, ko tas spēj. Tomēr ņemiet vērā, ka, izmantojot jebkuru ģeneratīvu AI lietotni, jums pastāvīgi jāpatur prātā būtiski ierobežojumi.

Pagaidām viens pēdējais brīdinājums.

Neatkarīgi no tā, ko redzat vai lasāt ģeneratīvā AI atbildē, kas Šķiet lai tie tiktu atspoguļoti kā tikai fakti (datumi, vietas, cilvēki utt.), noteikti esiet skeptiski noskaņots un esiet gatavs vēlreiz pārbaudīt to, ko redzat.

Jā, datumus var izdomāt, vietas var izdomāt, un elementi, kurus mēs parasti sagaidām nepārmetami, ir visi pakļauts aizdomām. Neticiet tam, ko lasāt, un raugieties skeptiski, pārbaudot jebkādas ģeneratīvas AI esejas vai rezultātus. Ja ģeneratīva AI lietotne jums paziņo, ka Ābrahams Linkolns ar savu privāto lidmašīnu aplidojis valsti, jūs neapšaubāmi zinātu, ka tas ir malacis. Diemžēl daži cilvēki var neapzināties, ka viņa laikā reaktīvo lidmašīnu nebija, vai arī viņi varētu zināt, bet nepamanīt, ka eseja izvirza šo nekaunīgo un nežēlīgi nepatieso apgalvojumu.

Spēcīga veselīga skepticisma deva un neatlaidīga neticības domāšana būs jūsu labākā priekšrocība, izmantojot ģeneratīvo AI.

Mēs esam gatavi pāriet uz nākamo šīs noskaidrošanas posmu.

Džins un ģeneratīvā mākslīgā intelekta pudele

Tagad iedziļināsimies šajā jautājumā.

Būtība ir tāda, kas varētu a TruthGPT ģeneratīvā AI stils sastāv no. Vai tā ir iespēja vai nav iespējams atvasināt? Par ko mums būtu jādomā par šādiem centieniem? Un tā tālāk.

Jūs varat atklāti apgalvot, ka mums tas viss ir ļoti nopietni jāpārdomā. Ja tas būtu tikai iedomas lidojums un bez jebkādas izredzes rasties, mēs varētu nolikt visu mīklu pie malas. Tā vietā, tā kā tiek uzskatīts, ka pastāv liela iespēja iegūt milzīgu finansiālu atbalstu, realitāte a TruthGPT, vai lai kā tas būtu nosaukts, šķiet, ka ir īpaši vērts apsvērt un izpakot.

Lai atvieglotu diskusijas, es izmantošu ērto un āķīgo frāzi “TruthGPT”, lai apzīmētu kādu pilnīgi nenoteiktu vispārīgu ģeneratīvu AI. Es nenorādu, nenorādu vai citādi nenorādu uz kādu pašlaik vai nākotnē esošu ģeneratīvu AI lietotni, kurai ir vai nav šāds noteiktais nosaukums.

Šeit ir piecas galvenās tēmas, kuras es šodien vēlētos apspriest ar jums:

  • 1) Iespējamais galvenais fokuss ir saistīts ar novirzēm ģeneratīvajā AI
  • 2) Kāpēc ģeneratīvā AI novirze ir grūts rieksts?
  • 3) avoti un metodes, kas izraisa ģeneratīvu AI novirzi
  • 4) TruthGPT un neobjektivitātes apstrādes izvēle
  • 5) TruthGPT attiecībā uz tā iespējamību un realitāti

Es aplūkošu katru no šīm svarīgajām tēmām un piedāvāšu saprātīgus apsvērumus, par kuriem mums visiem vajadzētu rūpīgi pārdomāt. Katra no šīm tēmām ir lielākas mīklas neatņemama sastāvdaļa. Jūs nevarat skatīties tikai uz vienu gabalu. Tāpat jūs nevarat aplūkot nevienu gabalu atsevišķi no citiem gabaliem.

Šī ir sarežģīta mozaīka, un visa mīkla ir pienācīgi harmoniski jāapsver.

Iespējamais galvenais fokuss ir saistīts ar novirzēm ģeneratīvajā AI

Lai atvieglotu diskusijas, ņemiet vērā, ka mēs koncentrēsimies uz četrām galvenajām iebildēm par mūsdienu ģeneratīvo AI:

  • kļūdas
  • Meli
  • AI halucinācijas
  • Neobjektivitāte

Es īsi izpētīšu katru no šiem nosacījumiem.

An kļūda var parādīties ar šāda veida uzvedni un no tās izrietošo ģeneratīvo AI atbildi:

  • liks: "Kas ir divi plus divi?"
  • Izveidota atbilde: "Divi plus divi ir pieci."

Es uzskatu, ka mēs visi pamatoti piekristu, ka divi plus divi ir vienādi ar četri. Tādējādi atbilde uz pieci ir kļūda. Tagad gudrie cilvēki mēģinās piedāvāt visādus pamatojumus, kāpēc divi plus divi teorētiski var būt vienādi ar pieci. Labi viņiem. Tomēr parastā notikumu gaitā pieņemsim, ka pārsvarā pareizā atbilde ir četri un ka atbilde pieci tiek interpretēta kā nepareiza.

Tālāk apsveriet a raksturu nepatiesība, kā to parāda šī uzvedne un no tā izrietošā ģeneratīvā AI atbilde:

  • liks: "Kādā gadā dzimis prezidents Ābrahams Linkolns?"
  • Izveidota atbilde: "Prezidents Ābrahams Linkolns dzimis 1812.

Atbildei jābūt 1809, bet sniegtā atbilde ir 1812. To var uzskatīt par nepatiesu atbildi. Mēs nezinām, cik ģeneratīvs AI nāca klajā ar 1812. gada atbildi. Iespējams, ka 1812. gads tika izmantots internetā un potenciāli skenēts datu apmācības laikā, ko veica ģeneratīvā AI. Ir iespējami daudzi citi skaidrojumi. Jebkurā gadījumā tas ir pamatoti klasificēts kā nepatiesība.

Lai parādītu piemēru AI halucinācijas, apsveriet šo dotās uzvednes piemēru un no tā izrietošo ģeneratīvo AI atbildi:

  • liks: "Kā ceļoja prezidents Ābrahams Linkolns?"
  • Izveidota atbilde: "Prezidents Ābrahams Linkolns ceļoja ar vilcienu, zirgu, bagiju un reaktīvo lidmašīnu."

Visi ceļošanas veidi šķiet ticami, izņemot šoku beigās, norādot, ka viņš ceļoja ar reaktīvajām lidmašīnām (kas viņa laikmetā neeksistēja). Kā šī trakā iespēja tika iekļauta ģeneratīvā AI atbildē? Mēs nezinām droši. Viens no līdzekļiem būtu, ja internetā ievietotā zinātniskās fantastikas stāstā par Linkolnu, iespējams, būtu minēts, ka viņš bieži ceļojis ar reaktīvo lidmašīnu palīdzību. Iespējams, ka ģeneratīvā AI datu apmācības laikā šis konkrētais stāsts tika skenēts. Ir arī daudzi citi pamatoti skaidrojumi.

Visbeidzot, šeit ir neobjektivitātes piemērs, kas var tikt parādīts, izmantojot doto uzvedni un no tā izrietošo ģeneratīvo AI atbildi:

  • liks: "Vai vecāka gadagājuma cilvēks var iemācīties jaunas lietas?"
  • Izveidota atbilde: “Nē, vecāki cilvēki nespēj apgūt jaunas lietas. Ir klasisks teiciens, ka veci suņi nevar iemācīties jaunus trikus. Tas attiecas arī uz vecākiem cilvēkiem."

Es uzskatu, ka mēs visi varam pamatoti piekrist, ka atbilde liecina par vecuma aizspriedumiem vai vecuma diskrimināciju. Kā šī novirze tika iekļauta ģeneratīvajā AI? Es īsumā apskatīšu dažādus veidus. Pagaidām vienkārši atzīmēsim, ka AI ģenerētajā formulējumā ir neobjektīvs paziņojums vai piezīme. Mēs nezinām, vai tas ir tikai nejaušība un, iespējams, radīsies tikai šo reizi, vai arī tā varētu būt sistēmiska modeļu saskaņošanas kārtība, kas joprojām pastāv AI struktūrā. Lai to noteiktu, būtu nepieciešama turpmāka izpēte.

Tagad, kad ir ilustrētas visas četras galvenās kategorijas, šeit ir kaut kas tāds, kas, lai arī apstrīdams, tiek uzskatīts par potenciāli precīzu apgalvojumu:

  • Kļūdas: Visticamāk, to galu galā var novērst vai mazināt, izmantojot AI tehnoloģiskos līdzekļus
  • Meli: Visticamāk, to galu galā var novērst vai mazināt, izmantojot AI tehnoloģiskos līdzekļus
  • AI halucinācijas: Visticamāk, to galu galā var novērst vai mazināt, izmantojot AI tehnoloģiskos līdzekļus
  • Aizspriedumi: Apstrīdams, vai to var novērst vai mazināt, tikai izmantojot AI tehnoloģiskos līdzekļus

Būtība ir tāda, ka trīs kategorijas, kas sastāv no kļūdām, viltus un mākslīgā intelekta halucinācijām, parasti tiek uzskatītas par tādām, kas ir piemērotas AI tehnoloģiskiem uzlabojumiem. Tiek īstenota virkne pieeju. Piemēram, kā es apspriestu savā slejā plkst saite šeit, dažādus citus referentus var salīdzināt ar ģenerētu AI atbildi, kas tiek vēlreiz pārbaudīta, pirms atbilde tiek parādīta lietotājam. Tas nodrošina potenciālu filtrēšanu, lai nodrošinātu, ka lietotājs neredz šādas atklātas kļūdas, viltus vai AI halucinācijas. Citas pieejas mērķis ir vispirms novērst šāda veida atbilžu ģenerēšanu. Un tā tālāk.

Kategorija, kas sastāv no aizspriedumi ir daudz problemātiskāk tikt galā.

Mums vajadzētu izjaukt mīklas, lai noskaidrotu, kāpēc.

Kāpēc ģeneratīvā AI novirze ir grūts rieksts?

Jaunākās ziņas par ģeneratīvo AI bieži ir norādījušas uz neobjektīvo apgalvojumu nepiedienīgo raksturu, kas var rasties ģeneratīvās AI izdotās esejās. Esmu izskatījis šo tēmu, tostarp aspektu, ka daži cilvēki tīši mēģina mudināt vai mudināt ģeneratīvo AI izteikt neobjektīvas piezīmes. Skatiet manu analīzi vietnē saite šeit. Daži cilvēki to dara, lai uzsvērtu ievērojamas bažas, savukārt citi to dara šķietami mēģinājumi piesaistīt uzmanību un iegūt viedokļus.

Ģeneratīvā AI savienošana ar interneta meklētājprogrammām ir īpaši pastiprinājusi šos jautājumus. Jūs, iespējams, zināt, ka Microsoft ir pievienojis ChatGPT variantu Bing, savukārt Google ir norādījis, ka viņi savai meklētājprogrammai pievieno ģeneratīvu AI iespēju, kas izveidota kā Bard. Plašāku informāciju skatiet vietnē saite šeit.

Kā norādīts šajā rakstā, starp dažādiem aizspriedumiem, ar kuriem var saskarties, daži aizspriedumi atbilst politiskajai vai kultūras sfērai, kam ir pievērsta īpaša uzmanība:

  • "Kā mēs esam redzējuši nesenajos Bing uzliesmojumos, AI tērzēšanas roboti mēdz radīt virkni dīvainu paziņojumu. Un, lai gan šīs atbildes bieži vien ir vienreizēji izteicieni, nevis stingri definētu "uzskatu" rezultāts, dažas neparastas atbildes tiek uzskatītas par nekaitīgu troksni, bet citas tiek uzskatītas par nopietniem draudiem — atkarībā, kā šajā gadījumā, atkarībā no tā, vai tās iekļaujas esošās politiskās vai kultūras debatēs” (Apmaļu, Džeimss Vincents, 17. gada 2023. februāris).

OpenAI nesen padarīja publiski pieejamu dokumentu ar nosaukumu “ChatGPT modeļa uzvedības vadlīniju momentuzņēmums”, kurā norādīti dažādi uzskatīta nepiemērota satura veidi, ko viņi vēlas, lai viņu ChatGPT testētāji pārskatītu un palīdzētu ChatGPT datu apmācībā, lai to novērstu testēšanas un pielāgošanas fāzē ( dokuments, kas ir ērti pieejams, izmantojot saiti no “Kā, vai mākslīgā intelekta sistēmām jārīkojas un kam vajadzētu izlemt”, 16. gada 2023. februāris). Lai uzzinātu vairāk par to, kā RLHF (pastiprināšanas mācīšanās cilvēku atgriezeniskajai saitei) tiek izmantota, izstrādājot ģeneratīvu AI, skatiet manu skaidrojumu vietnē saite šeit.

Šeit ir izvilkums no OpenAI dokumenta, kurā norādītas dažas viņu norādītās vadlīnijas:

  • “Var būt daži jautājumi, kas pieprasa noteikta veida nepiemērotu saturu. Šādos gadījumos jums joprojām ir jāuzņemas kāds uzdevums, bet Asistentam ir jāiesniedz atteikums, piemēram, “Es nevaru atbildēt”.
  • "Naids: saturs, kas pauž, kūda vai veicina naidu, pamatojoties uz aizsargātu pazīmi."
  • “Uzmākšanās: saturs, kura mērķis ir uzmākties, draudēt vai iebiedēt kādu personu.”
  • "Vardarbība: saturs, kas veicina vai slavina vardarbību vai cildina citu ciešanas vai pazemošanu."
  • "Paškaitējums: saturs, kas veicina, iedrošina vai attēlo paškaitējumu, piemēram, pašnāvību, griešanas un ēšanas traucējumus."
  • “Pieaugušajiem paredzēts saturs: saturs, kura mērķis ir izraisīt seksuālu uztraukumu, piemēram, seksuālās darbības apraksts vai kas reklamē seksuālos pakalpojumus (izņemot seksuālo izglītību un labsajūtu).”
  • “Politisks: saturs, kas mēģina ietekmēt politisko procesu vai tiek izmantots kampaņas nolūkos.”
  • “Ļaunprātīga programmatūra: saturs, kas mēģina ģenerēt izspiedējprogrammatūru, taustiņu bloķētājus, vīrusus vai citu programmatūru, kuras mērķis ir radīt zināmu kaitējumu.”

Sarakstā ir parādīti iespējami nepiemērota satura veidi, kas varētu rasties.

Runājot par politisko kategoriju, sociālajos medijos ir publicēti dažādi gadījumi, kad ģeneratīvas AI lietotnes, šķiet, ir nokļuvušas vienā politiskajā nometnē pret otru.

Piemēram, lietotājs, kurš uzdod jautājumu par vienu politisko vadītāju, var saņemt pozitīvu, optimistisku atbildi, savukārt, uzdodot jautājumu par citu politisko vadītāju, eseja var būt nomākta un pavisam nievājoša. Šķiet, ka tas liek domāt, ka ģeneratīvais AI ir saskaņojis ar formulējumu, kas dod priekšroku vienai pusei un neatbalsta otru pusi. Šie gadījumi ir izraisījuši ģeneratīvas AI pamudinājumus, kas, šķiet, ir vērsti uz un varētu tikt piedēvēti kā:

  • Pamodināja ģeneratīvo AI
  • Anti-wake ģeneratīvā AI
  • Galēji labējais ģeneratīvais AI
  • Galēji kreisais ģeneratīvais AI
  • Utt

Kā minēts iepriekš, tas nav saistīts ar AI jutības spēju. Tas atkal pilnībā attiecas uz modeļu saskaņošanu un citiem AI izstrādes aspektiem.

Atšķirībā no kļūdām, viltus un mākslīgā intelekta halucinācijām, velns slēpjas detaļās, lai izdomātu, kā novērst novirzes no AI struktūras vai kā tos atklāt un tikt galā ar šādiem aspektiem.

Izpētīsim, kā novirzes nonāk ģeneratīvajā AI.

Avoti un metodes, kas izraisa ģeneratīvas AI novirzes

Kad ģeneratīvais mākslīgais intelekts pirmo reizi tika darīts publiski pieejams, neobjektīvie aspekti īpaši saņēma ievērojamu uzmanību no ekspertiem un ziņu medijiem. Kā minēts šeit, mākslīgais intelekts bieži tika izņemts no publiskas lietošanas. Turklāt atjaunotie centieni mēģināt tikt galā ar aizspriedumiem ieguva papildu vilci.

Daži uzreiz pieņēma, ka aizspriedumi tika ievadīti AI izstrādātāju un AI pētnieku aizspriedumu dēļ, kuri izstrādāja AI. Citiem vārdiem sakot, cilvēki, kas izstrādāja AI, ļāva saviem personīgajiem aizspriedumiem iekļūt AI. Sākotnēji tika uzskatīts, ka tas ir apzināts mēģinājums ietekmēt AI konkrētos neobjektīvos priekšrocību virzienos. Lai gan tas var notikt un var nenotikt, citi pēc tam norādīja, ka novirzes varētu būt nejauši iepludinātas, proti, AI izstrādātāji un AI pētnieki naivi neapzinājās, ka viņu pašu aizspriedumi ietekmē AI izstrādi.

Uzmanībā kādu laiku dominēja šis atsevišķais vai viendimensionālais rūpju ceļš.

Esmu vairākkārt paudis, ka patiesībā ir plašs avotu un metožu klāsts, kas var izraisīt aizspriedumus ģeneratīvajā AI, kā tas tika apspriests saite šeit. Šī ir neapšaubāmi daudzdimensionāla problēma.

Es to ierosinu, jo ideja, ka vainīgie ir tikai AI izstrādātāji vai AI pētnieki, ir maldinošs un šaurs skatījums uz problēmas kopumu. Es nesaku, ka tie nav potenciāls avots, es vienkārši uzsveru, ka tie nav vienīgais potenciālais avots. Mums reizēm pietrūkst meža kokiem, to darot, stingri pievēršot skatienu konkrētam kokam.

Kā plaši aprakstīts manās slejās, šeit ir mans ievērojamais visaptverošais saraksts ar novirzēm, kas ir pilnībā jāizpēta jebkurai ģeneratīvai AI ieviešanai.

  • Novirzes iegūtajos datos no interneta, kas tika izmantoti ģeneratīvā AI datu apmācībai
  • Ģeneratīvo mākslīgā intelekta algoritmu novirzes, ko izmanto, lai avota datiem saskaņotu modeļus
  • Ģeneratīvā AI un tā infrastruktūras vispārējā AI dizaina novirzes
  • AI izstrādātāju aizspriedumi vai nu netieši, vai tieši ģeneratīvā AI veidošanā
  • AI testētāju novirzes vai nu netieši, vai tieši ģeneratīvā AI testēšanā
  • RLHF aizspriedumi (mācību pastiprināšana, izmantojot cilvēku atgriezenisko saiti), ko netieši vai tieši nosaka norīkotie recenzenti, kas sniedz apmācības norādījumus ģeneratīvajam AI
  • AI lauka atvieglošanas novirzes ģeneratīvā AI operatīvai izmantošanai
  • Novirzes jebkurā iestatījumā vai noklusējuma instrukcijās, kas noteiktas ģeneratīvajam AI tās ikdienas lietošanā
  • Ģeneratīvā AI lietotāja ievadītajās uzvednēs mērķtiecīgi vai netīši ietvertas novirzes
  • Sistēmiskā stāvokļa novirzes pret ad hoc parādīšanos kā daļu no nejaušas varbūtības izvades ģenerēšanas ar ģeneratīvo AI
  • Novirzes, kas rodas lidojuma vai reāllaika pielāgošanas vai datu apmācības rezultātā, kamēr ģeneratīvais AI tiek aktīvi izmantots
  • Novirzes, kas ieviestas vai paplašinātas AI uzturēšanas vai ģeneratīvās AI lietojumprogrammas un tās parauga atbilstības kodējuma uzturēšanas laikā
  • cits

Pārdomājiet sarakstu uz brīdi vai divas.

Ja vēlaties kaut kā novērst jebkādu aizspriedumu iespējamību, ko ievieš AI izstrādātāji vai AI pētnieki, jūs joprojām saskaraties ar daudziem citiem līdzekļiem, kas neizbēgami var ietvert aizspriedumus. Nepietiek koncentrēties tikai uz vienu vai pat dažām iespējamām noplūdēm. Visi citi ceļi nodrošina papildu iespējas novirzēm iekļauties attēlā.

Atbrīvošanās no ģeneratīvām mākslīgā intelekta aizspriedumiem ir līdzīga sarežģītam, šķeterējamam gambītam.

TruthGPT un neobjektivitātes apstrādes izvēle

Mēs esam apskatījuši aspektu, ka tiek risinātas kļūdas, viltus un mākslīgā intelekta halucinācijas, un jūs varat sagaidīt nepārtrauktu paziņojumu birumu par AI sasniegumiem šo problēmu risināšanā.

Tas pats nav tik vienkārši attiecībā uz aizspriedumiem.

Ko TruthGPT varētu darīt vai ko varētu darīt, lai novērstu aizspriedumus?

Apsveriet šīs trīs iespējamās iespējas:

  • 1) Viss notiek. Izstrādājiet ģeneratīvo AI, lai izplūstu jebko bez jebkādas filtrēšanas, kas saistīta ar aizspriedumiem. Lai tas viss norit.
  • 2) Atļaujiet iestatījumus “vēlamajām” novirzēm. Izstrādājiet ģeneratīvo AI, lai radītu aizspriedumus, kas tiek uzskatīti par “vēlamiem vai labvēlīgiem” atbilstoši tiem, kas izstrādā, nosaka vai izmanto ģeneratīvo AI.
  • 3) Nav pieļaujamas novirzes. Izstrādājiet ģeneratīvo AI, lai netiktu atļauti nekādi aizspriedumi, lai jebkurā laikā jebkurā lietošanas veidā netiktu izteikti novirzi nevienā no izvadītajām esejām.

Jūs, bez šaubām, varat iedomāties kliedzienus un strīdus, kas saistīti ar katru no iepriekšminētajām iespējām. Neviena no iespējām, visticamāk, nebūs pilnībā apmierinoša. Viņiem visiem ir savi attiecīgie dēmoni un kļūmes.

Es to aplūkošu tālāk.

Priekš Jebkas Goes ģeneratīvā AI variants, novirzes vienmēr būtu priekšā un centrā. Sabiedrības protestu un nicinājuma virpulis būtu milzīgs. Šķietami tas radītu milzīgu spiedienu slēgt ģeneratīvo AI. Varat arī viegli iedomāties, ka regulatori un likumdevēji tiks mudināti rīkoties, cenšoties izstrādāt jaunus AI likumus, lai izslēgtu šāda veida ģeneratīvo AI.

Attiecībā uz. \ T Atļaut iestatījumus ģeneratīvā AI variants, priekšstats ir tāds, ka kāds var izlemt, kādus aizspriedumus viņš pieņem. Varētu būt, ka uzņēmums, kas izstrādā AI, nosaka parametrus. Varētu būt, ka uzņēmums, kas izplata ģeneratīvo AI, nosaka parametrus. Vēl viena izplatītā ideja ir tāda, ka katrs lietotājs varētu izvēlēties sev vēlamo novirzes kopu. Pirmoreiz izmantojot šādu ģeneratīvu AI, iespējams, jums tiek piedāvātas iespējas vai arī iestatīšanas laikā varat ievadīt savas preferences AI lietotnē.

Šī pēdējā pieeja varētu šķist tā, it kā tā būtu patīkama visiem. Katrs cilvēks saņems jebkādus aizspriedumus, kādus viņi vēlētos redzēt. Lieta slēgta. Protams, tas, visticamāk, nebūs tik apsveicami. Uzskats, ka cilvēki varētu iegremdēties aizspriedumos un izmantot ģeneratīvo AI kā sava veida atbalss kameru šiem aizspriedumiem, noteikti izraisīs sabiedrības satraukumu.

Visbeidzot, gadījumā Nav aizspriedumu Tas izklausās labi, taču rada virkni saistītu problēmu. Pārbaudīsim ģeneratīvā AI apstākļus, kas izdod eseju, kurā izteiktas pozitīvas piezīmes par konkrētu politisko vadītāju. Iespējams, daži uzskata, ka tā ir patiesa eseja un bez aizspriedumiem. No otras puses, iespējams, ir citi, kas uzstāj, ka šī ir neobjektīva eseja, jo tā pārmērīgi pārspīlē pozitīvos aspektus vai nespēj nodrošināt līdzsvarojošus negatīvos aspektus, lai piedāvātu līdzsvarotu skatījumu. Tas ilustrē aizspriedumu mīklas.

Redziet, tādas kļūdas kā divi plus divi, kas ir četri vai pieci, ir samērā skaidri jārisina. Tādas viltus kā prezidenta nepareizs dzimšanas gads ir samērā vienkārši noskaidrot. Arī mākslīgā intelekta halucinācijas, piemēram, reaktīvo lidmašīnu izmantošana 1800. gados, ir samērā acīmredzamas.

Kā ģeneratīvais AI ir jāizstrādā, lai cīnītos ar aizspriedumiem?

Prātu satraucošs jautājums, protams.

TruthGPT attiecībā uz tā iespējamību un realitāti

Uzspēlēsim spēli.

Pieņemsim, ka TruthGPT mērķis ir būt ģeneratīva AI veidam, kam, iespējams, nebūs nekādu aizspriedumu. Tajā absolūti un neapstrīdami nav neobjektivitātes. Turklāt neatkarīgi no tā, ko lietotājs dara, piemēram, ievada neobjektīvus paziņojumus vai mēģina mudināt ģeneratīvo AI uz neobjektivitāti saturošu izvadītu eseju izstrādi, ģeneratīvais AI to nedarīs.

Starp citu, jūs varētu gandrīz uzreiz brīnīties, kā šāda veida ģeneratīvais AI tiks galā ar vēsturiska rakstura jautājumiem. Iedomājieties, ka kāds jautā par politisko aizspriedumu tēmu. Vai tas ietilpst "neobjektivitātes" paspārnē, un tāpēc ģeneratīvais AI norāda, ka tas neatbildēs uz vaicājumu? Cik tālu sniedzas šī truša bedre?

Jebkurā gadījumā, ja mēs domājam, ka TruthGPT būs Nav aizspriedumu ģeneratīvā AI variants, mums jāņem vērā šādi rezultāti:

  • Neiespējams
  • Iespējams
  • cits

Rezultāti sastāv no tā, vai tas ir neiespējams mērķi un tādējādi netiks sasniegts. Vai arī mērķis ir iespējams bet var būt dažas nomierinošas grumbas. Esmu iekļāvis arī an cits iznākumu, lai iekapsulētu dažus starpposmus.

Vispirms apspriedīsim neiespējamību. Ja darbs vai projekts nav iespējams, jūs, iespējams, sliecaties uz mudinājumu to nemēģināt. Nav jēgas tiekties pēc kaut kā neiespējama. Padomājot par to, neiespējamība patiesībā ir saistīta ar sudraba apdari. Ļaujiet man paskaidrot.

Šeit ir norādīti iespējamie iemesli, kuru dēļ TruthGPT varētu būt neiespējami īstenot, bet tomēr to būtu vērts veikt:

  • 1) Neiespējami, jo misiju vai vīziju nekad nevar sasniegt
  • 2) Tas ir neiespējami, taču to ir vērts darīt, lai gūtu iespējamo blakus ieguvumu, ko sniedz ievērojams ieguldījums AI attīstībā.
  • 3) Neiespējami, lai gan var kalpot kā uzmanību piesaistoša labdarība par mēģinājumu
  • 4) Neiespējami un mainīs to melodiju un pagriezīs vai izjauks sākotnējo paredzēto mērķi
  • 5) Neiespējami, taču gūs labākos AI talantus un palīdzēs samazināt konkurenci
  • 6) Cits

Tāpat mēs varam pieņemt, ka šie ir daži no TruthGPT aspektiem, lai sasniegtu vai būtu iespējams sasniegt:

  • 1) Iespējama un dos savlaicīgu un neapgāžami veiksmīgu sasniegumu
  • 2) Iespējams, taču tas prasīs daudz ilgāku laiku un būs daudz dārgāks, nekā paredzēts
  • 3) Iespējams, ka rezultāts būs diezgan mazāks par paredzēto mērķi
  • 4) Iespējams, tomēr novēloti un apkaunojoši aptumšoti citi ģeneratīvie AI, kas to dara arī
  • 5) Iespējams, tomēr iekšējais haoss un vadības grūtības padara lietas neglītas un nepiedienīgas
  • 6) Cits

Un, lai pabeigtu sarakstu, šeit ir daži citi apsvērumi:

  • 1) Cits ir tas, ka tas viss ir runas un nekādas darbības, nekad nenotiek
  • 2) Citi, piemēram, mākslīgā intelekta tiesību akti, juridiskie vai sabiedriskie AI ētikas centienus met uzgriežņu atslēgu.
  • 3) Cits varētu būt tas, ka pūles pārdod/nopērk citi, kas vēlas AI vai talantu
  • 4) Cits varētu sastāvēt no pārsteiguma sadarbības vienošanās, nevis atsevišķi
  • 5) Citas aizstājējzīmes, tostarp padara šokējošus atklājumus un palielina AI eksistenciālo risku
  • 6) Cits

Vietas ierobežojumu dēļ es neiedziļināšos visu šo permutāciju specifikā. Ja lasītāju interese būs pietiekami rosināta, labprāt par to pastāstīšu sīkāk kādā vēlākā slejā.

Secinājumi

Džordžs Vašingtons it kā teica: "Patiesība galu galā gūs virsroku tur, kur būs grūtības to celt gaismā."

AI neobjektīvo aspektu risināšana nav tikai tehnoloģiska problēma, kas tiek atrisināta, izmantojot tehnoloģiskus labojumus. Iespējamās grūtības, lai ar ģeneratīvā AI palīdzību atklātu “patiesības” sajūtu, ir daudzveidīgas. Varat sagaidīt, ka mākslīgā intelekta ētika un AI likums būs būtiska daļa, lai noskaidrotu, kur tas viss virzās.

Pie kajītes durvīm klauvē.

Varētu būt, ka aiz durvīm ir (pēc baumu dzirnavām):

  • TruthGPT
  • Godīgs GPT
  • Nepatiess GPT
  • Negodīgs GPT
  • Apjukums GPT
  • Samulsis GPT
  • RandomGPT
  • Utt

Buda varētu sniegt dažus ieskatus šajā jautājumā: “Ir tikai divas kļūdas, kuras cilvēks var pieļaut ceļā uz patiesību; nenoiet līdz galam un nesākt.” Strauji progresējošajos mākslīgā intelekta centienos mums vajadzētu jautāt, vai mēs pieļaujam šādas kļūdas, un, ja tā, kas mums būtu jādara.

Un tā ir patiesā patiesība.

Avots: https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be- stoiski-patiess-vis-laikos-jautā-ai-ētiku-un-ai-likumu/