AI hype Cry Wolf moments nav noderīgs

Lai gan es pētu cilvēces beigu scenārijus, es uzskatu, ka “eksperta vēstule”, kurā ieteikts 6 mēnešu AI moratorijs, vai jaunākais paziņojums, ka AI risks ir pandēmijas un kodolriska līmenī, ir pārspīlēti. Vēl mežonīgāks viedoklis, ka mums ir jāslēdz AI, ir bezatbildīgs. Visām bažām ir jābūt proporcionālām riskiem, ar kuriem mēs saskaramies. Šobrīd AI mums tiešā veidā nedraud.

Pašreizējie AI nespēj pārņemt sabiedrību. Viņiem nav jūtu un viņi nav pelnījuši aizsardzību, kā to dara cilvēku dzīves. Viņi nav superinteliģenti un vispār nepārspēj cilvēkus. Patiesībā viņi nemaz nedomā. Šobrīd, ja tiek ievadīti bagātīgi dati, AI ļoti labi veic konkrētus uzdevumus, piemēram, aprēķinus un prognozēšanu. Tas nav satraucoši, šīs ir šīs sistēmas funkcijas. AI solījums ietver vēža atrisināšanu, rūpnieciskās ražošanas pārveidošanu, nākotnes scenāriju modelēšanu un vides problēmu pārvaldību. Tomēr ir pamatoti iemesli kritizēt pašreizējos AI par resursu izmantošanu, pārredzamību, neobjektivitāti, kiberdrošību un tā turpmāko ietekmi uz nodarbinātību.

AI ir skaitļošanas ziņā dārgas, un tas nozīmē, ka tie ir liela deficīta fosilās enerģijas izšķiešana. Tas ir jārisina nekavējoties. Bet tas nav eksistenciāls jautājums, tas ir racionālas resursu izmantošanas jautājums. Fakts, ka AI, kas paļaujas uz lieliem un neefektīviem datu modeļiem, kļūst pārāk dārgi, lai tos izsekotu un izmeklētu akadēmiskās aprindas vai valdība, ir reāla problēma. Bet tas ir nekavējoties labojams. Elitāru akadēmisko institūciju vai valdību konsorciji varētu sadarboties un koplietot skaitļošanas resursus tāpat kā superskaitļošanas jomā.

Lielie valodu modeļi (LLM) ir AI modeļi, kas var ģenerēt dabiskās valodas tekstus no liela datu apjoma. Viena no problēmām ir tā, ka šie teksti ir tieši iegūti no citu cilvēku godīgā intelektuālā ieguldījuma. Tie faktiski ir nozagti. Jo īpaši ģeneratīvais AI apvieno gan patērētāju, gan organizācijas datus, kā arī radošo saturu, rupji pārkāpjot autortiesības. Tas ir nopietni, bet ne eksistenciāli, turklāt ES, Holivudas lobisti un “lielā piecinieka” grāmatu izdevēji jau ir pie lietas. Sagaidiet, ka tas palēninās AI darbību. Pašreizējā tempā AI beigsies labi apmācības dati, pirms tie tuvosies jūtīgumam.

Algoritmiem, kas jau izmantoti, lai aprēķinātu mūsu nodokļus, atlasītu mūsu tiešsaistes plūsmas vai ieslodzītu cilvēkus, ir pārsteidzošs pārredzamības trūkums. Tomēr tas tā ir bijis gadiem ilgi, un tam nav nekāda sakara ar jaunākajiem AI sasniegumiem. AI novirze ir funkcija, nevis kļūda. Stereotipu noteikšana patiesībā ir galvenā pieeja, ar kuras palīdzību šādi modeļi darbojas. Izņemot gadījumus, kad aizspriedumi ir paslēpti necaurlaidīgos mašīnprātošanas slāņos, kas ir nenotverami cilvēkiem, ekspertiem vai nē. Mums vajadzētu apšaubīt to izstrādātāju gudrību, kuri izstrādāja šādas sistēmas, nevis viņu izveidotās sistēmas spējas, kas ir dotas. Sistēmas reti kad būs labākas par to cilvēku gudrību vai nodomiem, kuri tās veido vai vada.

AI apmācības dati atspoguļo aizspriedumus sabiedrībā, no kuras šie dati tika vākti. Sliktu apmācības datu atkārtota izmantošana ir satraucoša prakse, kas jau piesārņo AI modeļus. Pašreizējās AI pieejas vienkārši pastiprina neobjektivitāti, lai ātri sasniegtu rezultātu. Tas, protams, ir pretējs tam, ko mēs vēlamies. Tas, ko mēs vēlamies darīt, ir izmantot tehnoloģiju, lai aizsargātu cilvēku kļūdas. Uztraukties par mašīnas kļūdām ir izšķērdīga cilvēka intelekta izmantošana.

Neraugoties uz “neironu tīkla” metaforu, pašreizējie AI ne pēc iztēles līdzinās smadzenēm. Pašreizējās AI sistēmas nevar spriest pēc analoģijas kā cilvēki. Tas ir labi. Mēs, iespējams, nevēlamies tādu mākslīgā intelekta saskaņošanu, par kuru cītīgie iestājas un mēģina līdzināties. Mašīnām ir jāatšķiras no cilvēkiem. Tādā veidā mēs varam maksimāli izmantot viens otra stiprās puses. Un kā mēs varam saglabāt mašīnas atšķirīgas un nošķirtas. Mašīnām nevajadzētu būt interesēm, ko saskaņot.

AI arvien vairāk ir nozīmīgs kiberdrošības drauds kā noziedznieku un naidīgu valstu priekšrocība. Taču kiberdrošība ir nobriedusi nozare, kurā ir daudz ekspertu, kas ir labi sagatavoti, lai risinātu šo izaicinājumu. Nav iemesla slēgt AI kiberdrošības baiļu dēļ.

Nodarbinātības pārtraukšana mākslīgā intelekta dēļ ir bijusi politikas problēma gadiem ilgi, vispirms ar robotiem, tagad ar programmatūru balstītām AI sistēmām. Tas nozīmē, ka valdības būs gatavas to risināt. MIT Work of The Future pētījums atklāja, ka bažas par bezdarbu robotu dēļ ir pārvērtētas. Cilvēki vienmēr ir atraduši veidus, kā strādāt, un to darīs arī turpmāk. Vai AI pārveidos ražošanu? Tas jau notiek, bet diezgan kontrolētā veidā.

Laiku pa laikam mākslīgais intelekts cieš no pārspīlētiem solījumiem par pašreizējo funkcionalitāti vai nākotnes darbības jomu. Pirmās mākslīgā intelekta ziemas sākās 1974.–1980. gadā, kad ASV valdība pārtrauca finansējumu. Otrais bija no 1987. līdz 1993. gadam, kad izmaksas pieauga, un AI nepildīja savus cēlos solījumus.

Gaidot jaunu paradigmu ierašanos, laika posmā no 2025. līdz 2030. gadam mēs, visticamāk, ieiesim trešajā mākslīgā intelekta ziemā. Vismaz salīdzinājumā ar karsto AI vasaru mums tiek solīts. Iemesls ir tāds, ka, neskatoties uz ažiotāžu, visu iepriekš minēto iemeslu dēļ lielie valodu modeļi drīz sasniegs savu maksimālo lietderību, un galu galā tie būs jāaizstāj ar skaitļošanas ziņā elegantākām pieejām, kas ir pārredzamākas.

Viens no šādiem kandidātiem ir hiperdimensionālā skaitļošana, kas padarītu mašīnas efektīvākas, jo tās nodrošina mašīnām semantisko izpratni, spēju apstrādāt nozīmi un kontekstu aiz reālās pasaules informācijas. Pašlaik AI sistēmas nesaprot vārdu un frāžu attiecības, tās vienkārši labi min minējumus. Tas ir par maz. Mums galu galā būs vajadzīgs iemiesots AI, jo domāšana ir saistīta ar telpas uztveri. Tas noteikti attiecas uz ražošanu, kas ir ļoti fiziska spēle. Mums būs vajadzīgs arī mākslīgais intelekts, kas spēj nodrošināt cilvēka atmiņas funkcijas, piemēram, prioritāšu noteikšanu, pamatojoties uz kādas informācijas priekšplānā un citas informācijas fonu. Aizmirstība ir rīks, ko cilvēki izmanto abstraktai domāšanai, pārejai no novecojušām organizatoriskām praksēm, lēmumu pieņemšanai un noturēšanās brīdī, un tas nav vienkārši trūkums. Neviena mašīna vēl nevar to izdarīt ļoti labi.

Tikmēr mums ir jāregulē, bet ne šo otro. Un, kad mēs regulējam, labāk darām to labi. Slikts AI regulējums, iespējams, pasliktinās situāciju. Regulatoru pamodināšana šim izaicinājumam var būt noderīga, taču es neesmu pārliecināts, ka pašreizējā regulatoru paaudze ir gatava tādām vērienīgām izmaiņām, kas būtu nepieciešamas, lai to paveiktu labi. Tas nozīmētu ietekmīgu uzņēmumu (iespējams, visu biržā kotēto uzņēmumu) ierobežošanu, mākslīgā intelekta izmantošanas ierobežošanu pārvaldībā un nozīmētu milzīgas izmaiņas patērētāju tirgu pašreizējā darbībā. Būtībā mums būtu jāpārveido sabiedrība. Tas mūs novedīs pie izaugšanas dažas desmitgades agrāk, nekā mēs varētu vēlēties. Pārredzamības problēma, kas saistīta ar AI, varētu būt daudz lielāka nekā kontroles mainīgie, par kuriem visi šķiet tik noraizējušies, protams, nevis tāpēc, ka tie nav saistīti.

Turklāt mēs nevaram būt vienlīdz noraizējušies katru reizi, kad tiek sasniegts AI etalons. Mums ir jātaupa enerģija patiesi lieliem kaskādes riska brīžiem. Viņi nāks, un, godīgi sakot, mēs neesam gatavi. Mani iecerētie nākotnes scenāriji (skatiet sadaļu Izzušanas scenāriji 2075. gadam) ietver milzīgus datu pārkāpumus, kuru dēļ veselas valstis vairākus mēnešus tiek izslēgtas no saviem procesiem. Es arī uztraucos par AI, kurām palīdz noziedzīgi grupējumi vai valsts dalībnieki. Visvairāk es uztraucos par mākslīgā intelekta, nanotehnoloģiju, sintētiskās bioloģijas un kvantu tehnoloģiju kombinācijām — gandrīz neredzamu kvaziorganisko intelektu ar nezināmām iespējām, iespējams, tikai pēc dažām desmitgadēm, kas notiek tieši tad, kad pasauli pārņems klimata kaskādes sekas. mainīt.

Pašreizējie AI modeļi vēl nedarbojas pietiekami labi, lai apdraudētu cilvēci. Lai mēs varētu apsvērt to slēgšanu, mums ir vajadzīgi labāki AI. Turklāt mums ir vajadzīgi gudrāki izstrādātāji, iejūtīgāki pilsoņi un labāk informēti politikas veidotāji. Mums ir vajadzīga arī koncepcija, KĀ regulēt AI. Bet to var izdarīt, neko nepalēninot. Tas būs izglītojošs ceļojums visiem. Moratorija vēstule attiecībā uz GPT 4 (2023) ir vilka raudāšanas brīdis, un tajā ir tikai vāja līdzība ar kaskādes riskiem, ar kuriem cilvēce saskarsies nākamajās desmitgadēs. 2023. gadā AI risku izvirzīt pandēmijas riska un kodolriska līmenī ir pāragri. Vai mēs tur nokļūsim? Varbūt. Bet raudošam vilkam ir sekas. Tas izsūc skābekli no gaidāmajām debatēm par reālām bailēm.

Avots: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/