Desmitiem mākslīgā intelekta (AI) ekspertu, tostarp OpenAI, Google DeepMind un Anthropic vadītāji, nesen parakstīja atklātu paziņojumu, ko publicēja AI drošības centrs (CAIS).
Mēs tikko publicējām paziņojumu:
"AI radītā izzušanas riska mazināšanai ir jābūt globālai prioritātei līdzās citiem sabiedrības mēroga riskiem, piemēram, pandēmijām un kodolkaram."
Parakstītāji ir Hintons, Bengio, Altmans, Hassabis, Song utt.https://t.co/N9f6hs4bpa
(1 / 6)
— Dens Hendriks (@DanHendrycks) 30. gada 2023. maijs
Paziņojumā ir viens teikums:
"AI radītā izzušanas riska mazināšanai ir jābūt globālai prioritātei līdzās citiem sabiedrības mēroga riskiem, piemēram, pandēmijām un kodolkaram."
Dokumenta parakstītāju vidū ir īsts mākslīgā intelekta korektoru “kurš ir kurš”, tostarp AI “krusttēvs” Džefrijs Hintons; Kalifornijas Universitāte, Bērklija Stjuarts Rasels; un Masačūsetsas Tehnoloģiju institūta Lekss Fridmens. Parakstītājs ir arī mūziķis Grimess, kas norādīts kategorijā “citas ievērojamas personas”.
Saistītie: Mūziķis Grims vēlas "dalīt 50% honorāru" ar AI radītu mūziku
Lai gan šis apgalvojums šķiet nekaitīgs, šķiet, ka pamatā esošais vēstījums AI kopienā ir diezgan pretrunīgs.
Šķietami pieaugošais ekspertu skaits uzskata, ka pašreizējās tehnoloģijas var vai neizbēgami novedīs pie tādas AI sistēmas rašanās vai attīstības, kas spēj radīt eksistenciālus draudus cilvēku sugai.
Taču viņu viedoklim pretī stājas ekspertu kontingents ar diametrāli pretējiem viedokļiem. Piemēram, Meta galvenais AI zinātnieks Jans Lekuns vairākkārt ir atzīmējis, ka ne vienmēr uzskata, ka AI kļūs nekontrolējams.
Pārcilvēciskais AI ne tuvu nav eksistenciālo risku saraksta augšgalā.
Lielā mērā tāpēc, ka tā vēl neeksistē.Kamēr mums nav izstrādāts pamata dizains pat suņa līmeņa AI (nemaz nerunājot par cilvēku līmeni), apspriest, kā to padarīt drošu, ir pāragri. https://t.co/ClkZxfofV9
— Jans Lekuns (@ylecun) 30. gada 2023. maijs
Viņam un citiem, kas nepiekrīt “izmiršanas” retorikai, piemēram, Endrjū Ngam, Google Brain līdzdibinātājam un bijušajam Baidu galvenajam zinātniekam, AI nav problēma, tā ir atbilde.
No otras puses, eksperti, piemēram, Hinton un Conjecture izpilddirektors Connor Leahy uzskata, ka cilvēka līmeņa AI ir neizbēgams, un tāpēc ir pienācis laiks rīkoties.
Visu lielāko mākslīgā intelekta laboratoriju vadītāji parakstīja šo vēstuli, skaidri atzīstot AGI izzušanas risku.
Neticams solis uz priekšu. Apsveicam Danu par viņa neticamo darbu, saliekot to kopā, un paldies ikvienam parakstītājam par savu ieguldījumu labākas nākotnes labā! https://t.co/KDkqWvdJcH
— Konors Līhijs (@NPCollapse) 30. gada 2023. maijs
Tomēr nav skaidrs, uz kādām darbībām paziņojuma parakstītāji aicina. Gandrīz visu lielāko AI uzņēmumu vadītāji un/vai AI vadītāji, kā arī slaveni zinātnieki no visas akadēmiskās aprindas ir vieni no tiem, kas parakstīja līgumu, padarot acīmredzamu, ka nolūks nav apturēt šo potenciāli bīstamo sistēmu attīstību.
Šā mēneša sākumā OpenAI izpilddirektors Sems Altmans, viens no iepriekš minētā paziņojuma parakstītājiem, pirmo reizi ieradās Kongresā Senāta uzklausīšanas laikā, lai apspriestu AI regulējumu. Viņa liecība nokļuva virsrakstos pēc tam, kad viņš lielāko daļu tās pavadīja, mudinot likumdevējus regulēt viņa nozari.
Altman's Worldcoin, projekts, kurā apvienota kriptovalūta un personības apliecinājums, arī nesen ir iekļuvis plašsaziņas līdzekļos pēc 115 miljonu ASV dolāru C sērijas finansējuma palielināšanas, palielinot kopējo finansējumu pēc trim kārtām līdz 240 miljoniem ASV dolāru.
Avots: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war