Meta AI iepazīstina ar AI piesātinātu diplomātisko šarmu, kas mākslīgā intelekta ētiku un AI likumus iejauc smalkā tifā

Cienījamā šarma un diplomātijas pasaule bieži ir izkropļota ar nelokāmību un nepieklājību.

Vils Rodžerss, izcilais humorists un sociālais komentētājs, ir teicis, ka diplomātija ir māksla pateikt “jauks sunītis”, līdz atrodi akmeni.

Acīmredzamā norāde ir tāda, ka dažreiz jums ir stingri jānotur visi draudošie un apdraudošie spēki, līdz jūs varat atrast piemērotu aizsardzību. Dariet to, kas jums jādara, atrodoties izmisuma šaurumos. Apzināti un mērķtiecīgi nomieriniet tos, kas jūs apdraud, izmantojot savus nomierinošos un aizkustinošos vārdus, uzkrājot dārgo laiku, lai apbruņotos ar praktiskāku un atklāti taustāmu nostāju.

REKLĀMAS

Daži apgalvo, ka karš ir nesaraujami neveiksmīgas diplomātijas rezultāts. Šajā pārdomātajā skatījumā nemitīga diplomātijas bungu sitieni novērsīs karu. Turpiniet runāt, un cīņa nesāksies. Citi dedzīgi nepiekrīt šādam problemātiskam viedoklim. Iespējams, saka, diplomātija patiesībā ir tas, kas mūs ieved karos. Turklāt varētu būt, ka diplomātija izstiepj karus un turpina bezgalīgi turpināt cīņu.

Mēs dosim Vilam Rodžersam vēl vienu iespēju izbaudīt humoru no jautājuma par to, vai diplomātija ir laba vai slikta attiecībā uz kara iestāšanos vai turpināšanos: “Izņemiet diplomātiju no kara, un lieta izjuks pēc nedēļas” (viņš) kā ziņots).

Kopējā diplomātijas definīcija uzsver nāciju savstarpējās attiecības. Diplomāti pārstāv noteiktas nācijas vai nacionālās valstis un, pildot savus svētos pienākumus, izmanto diplomātiju. Mēs sagaidām, ka mūsu diplomāti veiks savu ārpolitiku, izmantojot aplombu. Ziņnesim nevajadzētu būt tam, kas izraisa naidīgumu, tā vietā var būt tikai ziņa. Domājams, ka nevainojams diplomātiskais attēlojums pat visbriesmīgākajiem ziņojumiem var acīmredzami mīkstināt triecienu, ko rada citādi kaitīgs pieprasījums vai draudi.

REKLĀMAS

Protams, diplomātija neaprobežojas tikai ar oficiālu diplomātu augsto darbu. Es uzdrošinos teikt, ka mūsu ikdienas dzīvē mums visiem ir jāiegūst diplomātijas līdzība. Ja vēlaties, lai draugs pieskatītu jūsu mīļoto suni, kamēr esat komandējumā, jūs noteikti diplomātiski izteiksiet lūgumu parūpēties par kucēnu. Tieša prasība to darīt, visticamāk, piezemēsies ar trulu sitienu.

Iespējams, ka diplomātija ir vairāk māksla nekā zinātne, un tā ir kaut kas tāds, ko cilvēki izmanto, lai ieeļļotu sānslīdes, iedegtu apgaismojumu un neļautu sabiedrībai pilnībā sajukt. Sarunas nāk spēlēt. Iespējams, būs jārod mierinājums. Dažreiz jūs izmantojat burkānu, dažreiz jūs izmantojat nūju. Ja jums tas ir jādara, varat izmēģināt tā saukto lielgabalu diplomātiju, ar kuru jūs mēģināt iebiedēt citus apkārtējos. Vai arī spēcīgas bruņošanās vietā jūs varētu izvēlēties maigāku starpniecības un humānās palīdzības ceļu. Tas viss ir atkarīgs.

Labi, tāpēc mēs visi pamatoti piekrītam, ka diplomātija ir būtisks saziņas veids starp cilvēkiem. Tas sastāv no prakses vai skatuves, kas saistītas ar takta pielietošanu, starpniecību, pārrunām, samierināšanu un virkni sabiedriski veiklu politiku.

REKLĀMAS

Pievienosim šim vienādojumam vēl kaut ko.

Vai esat gatavi?

Mēs pievienosim kaut ko citu, ko jūs, iespējams, vēl esat apsvēris.

Mākslīgais intelekts (AI).

Jā, AI iekļūst diplomātijas gambītā. Tas šķiet pilnīgi saprātīgi. Ja mēs vēlamies, lai mākslīgais intelekts būtu iegremdēts visās mūsu dzīves jomās, galu galā diplomātijai bija jānāk sava kārta. Mēs varētu sagaidīt, ka mākslīgais intelekts spēs veikt visus savus pienākumus, izmantojot atbilstošus diplomātijas vārdus un manieres.

REKLĀMAS

AI kā autonoms vai daļēji autonoms diplomāts.

Es saprotu, ka tas varētu šķist diezgan biedējoši un pavisam biedējoši. Es nedomāju, ka neviens no mums ir gatavs AI darboties kā mūsu attiecīgo valstu pārstāvis. Iedomājieties, ka AI kalpo mūsu vārdā, lai apspriestu mūsu starptautiskās pozīcijas un apstiprinātu mūsu globālo politisko nostāju. Ak! Tas ir šo apokaliptisko zinātniskās fantastikas stāstu saturs.

Īsi atviegloti nopūtieties, jo pagaidām tas nav kartītēs.

Tā vietā padomājiet par mākslīgo intelektu, ko izmantojat, lai veiktu bankas darbību, vai kas palīdz jums iegādāties māju. Mūsdienu mākslīgais intelekts, kas mijiedarbojas ar cilvēkiem, parasti ir diezgan vienkāršs. Pievēršieties faktiem, tikai faktiem. Dažiem mākslīgā intelekta veidiem ir pievienoti jauki formulējumi, lai liktu jums domāt, ka tas ir draudzīgs vai draugs, lai gan tas ir ātri redzams. Tikai tāpēc, ka mākslīgā intelekta sistēma jūs atsaucas ar jūsu vārdu vai izsaka tādus vārdus kā “labdien”, nevis “sveiki”, lielākā daļa no mums uzreiz saprot, ka šī ir šarde.

Nākamais solis, kas tiek dedzīgi sperts AI izstrādātāju zālēs, ir mēģināt iepludināt diplomātiskās īpašības mūsu ikdienas AI. Galvenais mērķis ir iekļaut programmatiskus aspektus, kas ļaus AI demonstrēt diplomātiju un diplomātiskam līdzīgu uzvedību. Izmantojot dažādus algoritmus un jo īpaši jaunākos ģeneratīvos AI vai lielo valodu modeļus (LLM), šajā jomā ir panākts ievērojams progress.

REKLĀMAS

Mēs apskatīsim vienu šādu piemēru, CICERO, jaunu AI sistēmu, ko izlaidusi Meta AI komanda.

Ja bijāt atvaļinājumā un neesat sekojis līdzi jaunākajām ziņām par mākslīgo intelektu, nesenais paziņojums par mākslīgā intelekta sistēmu, kas radīta kā CICERO, piedāvā nozīmīgu norādi, kur mūsdienās atrodas AI pārņemtā diplomātijas arēna. Pārdomāti un godam, Meta AI komanda ir atklāti darījusi pieejamu savu izstrādāto CICERO AI sistēmu. Tehnisko informāciju varat izlasīt publicētajā pētnieciskajā rakstā par ZinātneSkatīt saite šeit. Varat apmeklēt vietni, ko viņi ir izveidojuši, lai maigi nodotu CICERO vispārējās nianses ar īsiem videoklipiem, kas ilustrē tā darbību (sk. saite šeit). Tiem no jums, kas meklē nepārprotamu faktisko programmas kodu un programmatūru, avota kodu varat atrast vietnē GitHub vietnē saite šeit.

Es vēlos ātri precizēt vienu aspektu, kas varētu šķist mulsinošs, ja izvēlēsities iedziļināties šajā jautājumā.

Konkrētā Meta AI izstrādātā AI sistēma pašlaik ir izveidota, lai spēlētu zināmu populāru spēli, kas pazīstama kā Diplomātija (iespējams, jūs esat redzējis galda spēli kā Hasbro un citi spēļu veidotāji). Es to aktualizēju, jo vārdam “diplomātija” šajā gadījumā būs dubults pienākums. No vienas puses, izstrādātais AI mēģina ievadīt uzņēmuma un displeja īpašības diplomātija pats par sevi. Tikmēr iestatījums, kurā notiek šī konkrētā AI sistēma, ir spēlējot īpaši un tikai (šobrīd) slaveno galda spēli, kas pazīstama kā Diplomātija.

Vai redzat, kā tas potenciāli samulsinās dažus cilvēkus?

Ja kāds jums saka, ka šim konkrētajam mākslīgajam intelektam ļoti labi veicas “diplomātijā”, jūs, iespējams, nezināt, vai viņi atsaucas uz domu, ka AI ir diezgan prasmīgs galda spēles, kas pazīstamas kā Diplomātija vai varbūt tā vietā viņi liek domāt, ka AI iemieso galveno būtību, kas saistīta ar cilvēces diplomātijas aktu. Turklāt varētu būt, ka abi aspekti ir domāti vienlaikus (proti, AI spēlē labi Diplomātija un vienlaikus labi padodas spējīga vingrināties vai demonstrēt diplomātiju kā prasmi vai darbību).

REKLĀMAS

Šeit es mēģināšu to iztaisnot, pirmo burtu rakstot ar lielo burtu un kursīvā norādot galda spēles nosaukumu, Diplomātija. Pārējā laikā es izmantošu “diplomātijas” formulējumu bez slīpraksta, lai norādītu uz vispārējo priekšstatu par diplomātiju vai diplomātijas demonstrēšanu (skat., es to izdarīju tieši tur).

Atgriežoties pie izskatāmā jautājuma, jūs varētu uz brīdi padomāt, vai AI, kas demonstrē diplomātiju, ir kaut kas tāds, ko mums vajadzētu vēlēties vai arī no tā izvairīties.

Ir daudz pozitīvu aspektu, lai mākslīgais intelekts demonstrētu diplomātiju. Tomēr jūs dzīvojat seklā burbulī, pieņemot, ka mākslīgā intelekta īstenošanas diplomātija būs pilnīgi un vienīgi laba lieta. AI, kam, šķiet, piemīt diplomātiskās prasmes un kas var likt mums noticēt, ka tai piemīt diplomātiska spēja, ir arī pārpildīts ar satraucošiem jautājumiem, kas mums ir jāizceļ priekšplānā. Būtībā šādā veidā izmantotais AI rada daudz jautājumu par AI ētiku un AI likumu. Tiem no jums, kurus interesē AI ētika un AI tiesību akti, varat apskatīt manu plašo un pastāvīgo ētikas AI un AI likumu izklāstu vietnē saite šeit un saite šeit, tikai nosaukt dažus.

Pirms pievērsties AI kā kāda veida diplomātijas iemiesojumam, es vispirms vēlos ielikt dažus būtiskus pamatus attiecībā uz AI un jo īpaši AI ētiku un AI likumu, lai pārliecinātos, ka diskusija būs kontekstuāli saprātīga.

REKLĀMAS

Pieaugošā izpratne par ētisko AI un arī AI likumu

Nesenais AI laikmets sākotnēji tika uzskatīts par tādu AI uz labu, kas nozīmē, ka mēs varētu izmantot AI cilvēces uzlabošanai. Uz papēžiem AI uz labu nāca atziņa, ka arī mēs esam iegrimuši AI For Bad. Tas ietver AI, kas ir izdomāts vai pašpārveidots, lai būtu diskriminējošs un kas veic skaitļošanas izvēles, radot nepamatotas novirzes. Dažreiz mākslīgais intelekts tiek veidots šādā veidā, savukārt citos gadījumos tas novirzās uz šo nevēlamo teritoriju.

Es vēlos būt pilnīgi pārliecināts, ka mēs esam vienā pusē attiecībā uz mūsdienu AI būtību.

Mūsdienās nav AI, kas būtu jūtīgs. Mums šī nav. Mēs nezinām, vai jutīgais AI būs iespējams. Neviens nevar precīzi paredzēt, vai mēs sasniegsim jutīgu AI, kā arī to, vai jutīgs AI kaut kā brīnumaini spontāni radīsies skaitļošanas kognitīvās supernovas veidā (parasti saukta par singularitāti, skatiet manu pārklājumu vietnē saite šeit).

AI veids, uz kuru es koncentrējos, sastāv no nejūtošā AI, kas mums ir šodien. Ja mēs vēlamies mežonīgi spekulēt par jutīgu AI, šī diskusija varētu virzīties radikāli citā virzienā. Domājams AI būtu cilvēka kvalitātes. Jums jāņem vērā, ka jutīgais AI ir cilvēka kognitīvs ekvivalents. Vēl jo vairāk, tā kā daži uzskata, ka mums varētu būt superinteliģents AI, iespējams, ka šāds AI varētu būt gudrāks par cilvēkiem (manu superinteliģentā AI kā iespēju izpēti sk. pārklājums šeit).

REKLĀMAS

Es stingri ieteiktu mums paturēt lietas piezemētas un apsvērt mūsdienu skaitļošanas nejūtīgo AI.

Saprotiet, ka mūsdienu mākslīgais intelekts nespēj “domāt” tādā pašā veidā kā cilvēka domāšana. Mijiedarbojoties ar Alexa vai Siri, sarunu spējas var šķist līdzīgas cilvēka spējām, taču patiesībā tās ir skaitļošanas iespējas un tām trūkst cilvēka izziņas. Jaunākajā AI laikmetā ir plaši izmantota mašīnmācīšanās (ML) un dziļā mācīšanās (DL), kas izmanto skaitļošanas modeļu saskaņošanu. Tas ir novedis pie AI sistēmām, kas izskatās pēc cilvēkiem līdzīgas tieksmes. Tikmēr mūsdienās nav neviena mākslīgā intelekta, kam būtu veselais saprāts un arī cilvēka spēcīgas domāšanas izziņas brīnums.

Esiet ļoti uzmanīgs, antropomorfizējot mūsdienu AI.

ML/DL ir skaitļošanas modeļu saskaņošanas veids. Parastā pieeja ir tāda, ka jūs apkopojat datus par lēmumu pieņemšanas uzdevumu. Jūs ievadāt datus ML/DL datoru modeļos. Šie modeļi cenšas atrast matemātiskos modeļus. Pēc šādu modeļu atrašanas, ja tādi tiek atrasti, AI sistēma izmantos šos modeļus, sastopoties ar jauniem datiem. Uzrādot jaunus datus, pašreizējā lēmuma pieņemšanai tiek piemēroti modeļi, kuru pamatā ir “vecie” vai vēsturiskie dati.

Es domāju, ka jūs varat uzminēt, kurp tas virzās. Ja cilvēki, kas ir pieņēmuši pieņemtus lēmumus, ir iekļāvuši nevēlamus aizspriedumus, pastāv iespēja, ka dati to atspoguļo smalki, bet nozīmīgi. Mašīnmācīšanās vai dziļās mācīšanās skaitļošanas modeļu saskaņošana vienkārši mēģinās attiecīgi matemātiski atdarināt datus. AI radītajā modelēšanā per se nešķiet veselais saprāts vai citi jūtīgi aspekti.

REKLĀMAS

Turklāt AI izstrādātāji, iespējams, arī neapzinās, kas notiek. Arkāniskā matemātika ML/DL var apgrūtināt tagad slēpto aizspriedumu novēršanu. Jūs pamatoti cerat un gaidāt, ka AI izstrādātāji pārbaudīs potenciāli apraktos aizspriedumus, lai gan tas ir sarežģītāk, nekā varētu šķist. Pastāv liela iespēja, ka pat ar salīdzinoši plašu testēšanu ML/DL modeļu atbilstības modeļos joprojām būs novirzes.

Jūs varētu mazliet izmantot slaveno vai bēdīgi slaveno sakāmvārdu par atkritumu savākšanu. Lieta ir tāda, ka tas vairāk līdzinās aizspriedumiem, kas mānīgi tiek iepludināti, AI iegremdējot aizspriedumus. AI lēmumu pieņemšanas algoritms (ADM) aksiomātiski kļūst piekrauts ar nevienlīdzību.

Nav labi.

Tam visam ir īpaši nozīmīgas AI ētikas sekas, un tas piedāvā ērtu logu gūtajām mācībām (pat pirms visu mācību stundu veikšanas), kad runa ir par AI tiesību aktu pieņemšanu.

REKLĀMAS

Papildus AI ētikas priekšrakstu izmantošanai kopumā ir attiecīgs jautājums par to, vai mums vajadzētu pieņemt likumus, kas regulētu dažādus AI lietojumus. Federālā, štata un vietējā līmenī tiek pieņemti jauni likumi, kas attiecas uz AI izstrādes diapazonu un raksturu. Centieni izstrādāt un pieņemt šādus likumus notiek pakāpeniski. AI ētika kalpo vismaz kā pārdomāts pārtraukums, un gandrīz noteikti zināmā mērā tiks tieši iekļauts šajos jaunajos likumos.

Ņemiet vērā, ka daži nelokāmi apgalvo, ka mums nav vajadzīgi jauni likumi, kas aptver AI, un ka mūsu esošie likumi ir pietiekami. Viņi brīdina, ka, ja mēs ieviesīsim dažus no šiem AI likumiem, mēs nogalināsim zelta zosu, ierobežojot AI progresu, kas sniedz milzīgas sabiedrības priekšrocības.

Iepriekšējās slejās esmu apskatījis dažādus valsts un starptautiskos centienus izstrādāt un ieviest likumus, kas regulē AI, sk. saite šeit, piemēram. Esmu apskatījis arī dažādus mākslīgā intelekta ētikas principus un vadlīnijas, ko ir noteikušas un pieņēmušas dažādas valstis, tostarp, piemēram, Apvienoto Nāciju Organizācijas centienus, piemēram, UNESCO AI ētikas kopumu, ko pieņēma gandrīz 200 valstis, sk. saite šeit.

REKLĀMAS

Šeit ir noderīgs ētisko AI kritēriju vai raksturlielumu saraksts attiecībā uz AI sistēmām, kuras esmu iepriekš rūpīgi izpētījis.

  • Caurspīdīgums
  • Taisnīgums un godīgums
  • Ne-ļaunprātība
  • atbildība
  • Privātums
  • Labums
  • Brīvība un autonomija
  • Uzticēties
  • Ilgtspējība
  • cieņa
  • Solidaritāte

Šie AI ētikas principi ir nopietni jāizmanto AI izstrādātājiem, kā arī tie, kas pārvalda AI izstrādes centienus, un pat tie, kas galu galā veic AI sistēmu apkopi un uzturēšanu.

Visas ieinteresētās puses visā AI izstrādes un lietošanas dzīves ciklā tiek uzskatītas par ētiskā AI noteikto normu ievērošanu. Tas ir svarīgs akcents, jo parasti tiek pieņemts, ka “tikai kodētāji” vai tie, kas programmē AI, ir pakļauti AI ētikas jēdzieniem. Kā jau iepriekš tika uzsvērts, ir nepieciešams ciemats, lai izstrādātu un ieviestu mākslīgo intelektu, un tam visam ciematam ir jābūt pieredzējušam un jāievēro AI ētikas priekšraksti.

REKLĀMAS

Es arī nesen pārbaudīju AI tiesību akts kas ir oficiālais nosaukums ASV valdības oficiālajam dokumentam ar nosaukumu “AI Bill of Rights: Automated Systems Work for the American People”, kas ir Zinātnes un tehnoloģiju politikas biroja (OSTP) gadu ilgo darbu rezultāts. ). OSTP ir federāla vienība, kas kalpo, lai konsultētu Amerikas prezidentu un ASV izpildbiroju par dažādiem valsts nozīmes tehnoloģiskiem, zinātniskiem un inženiertehniskiem aspektiem. Šajā ziņā jūs varat teikt, ka šis AI tiesību akts ir dokuments, ko apstiprinājis un apstiprinājis esošais ASV Baltais nams.

AI tiesību aktā ir piecas galvenās kategorijas:

  • Drošas un efektīvas sistēmas
  • Algoritmiskā diskriminācijas aizsardzība
  • Datu privātums
  • Paziņojums un skaidrojums
  • Cilvēku alternatīvas, apsvērumi un atkāpšanās

Esmu rūpīgi pārskatījis šos priekšrakstus, skat saite šeit.

REKLĀMAS

Tagad, kad esmu ielicis noderīgu pamatu šīm saistītajām AI ētikas un mākslīgā intelekta tiesību tēmām, mēs esam gatavi pievērsties satriecošajai, ar mākslīgo intelektu saistītā mašīnbūves diplomātijas tēmai.

AI diplomātija visā tās krāšņumā un arī iespējamajā sabrukumā

Pirmkārt, noskaidrosim, ka šeit aplūkotais AI veids ir nejūtīgs AI.

Es to saku tāpēc, ka ja vai daži saka kad mēs sasniegsim jutīgo AI, visa tēma, iespējams, tiks pilnībā apgriezta. Iedomājieties iespējamo haosu un sabiedrības apjukumu, jo esat kaut kādā veidā nokļuvis citkārt nekad agrāk neapšaubāmi pārbaudītā mākslīgs intelekts, kas iemieso jūtīgumu (manu analīzi par slaveno AI testu, kas pazīstams kā Tjūringa tests, sk. saite šeit). Jūs varat izdarīt pamatotas likmes, ka daudzas mūsu esošās kultūras, juridiskās un ikdienas normas tiks ļoti satricinātas līdz pamatiem.

Varbūt jutīgais AI būs mūsu draugs, vai varbūt jūtīgais AI būs mūsu ļaunākais ienaidnieks. Kā mēs varēsim pateikt, kādā virzienā AI ies?

Jums varētu rasties kārdinājums domāt, ka mēs, iespējams, varēsim sarunāties ar AI un pēc tā teiktā noskaidrot tā nodomus. Aha, tu esi iekritis mulsinošās lamatās. Pieņemsim, ka AI ir īpaši labi piesātināta ar kāda veida AI diplomātijas iespējām. Mēģinot runāt ar AI, tas, iespējams, runās visburvīgākajos un daiļrunīgākajos vārdos. Tas varētu būt ļoti nomierinošs cilvēcei.

REKLĀMAS

Bet vai tas ir tas, ko AI patiešām ir “padomā” attiecībā uz AI balstītajiem skaitļošanas nodomiem?

AI, iespējams, veic klasisko diplomātisko sitienu viens-divi. Runājiet par labu spēli un ļaujiet mums iemidzināt, ka AI ir mūsu visu laiku labākais draugs. Tas varētu dot mākslīgajam intelektam laiku uzkrāt resursus, lai apsteigtu cilvēci, vai, iespējams, cītīgi strādāt aizkulisēs, lai samazinātu visu pārējo, ko izmantojam cilvēces uzturēšanai. Pēc šīs gudrās diplomātiskās ķibeles, mākslīgais intelekts mūs visus satriec.

Atcerieties Vila Rodžersa teikto, kas šajā gadījumā varētu būt tas, ka mākslīgais intelekts mums saka “Jauks sunītis”, un mēs dodam mākslīgajam intelektam pietiekami daudz vietas elpināšanai, lai pēc tam mūs noslaucītu no planētas. Šī AI kā eksistenciāla riska koncepcija jau sen ir bijusi izplatīta. Daži uzskata, ka, izstrādājot mākslīgo intelektu ar piesātinātu diplomātiju, mēs nonāksim snūkerā. AI mērķtiecīgi izmantos visas diplomātiskās lietas, uz kurām mēs palīdzējām apmācīt AI, un galu galā mēs tiksim akli piemānīti, ka AI kļūs par mūsu kungu.

Kauns par mums.

Tiem no jums, kurus vēl vairāk interesē šis ļoti spekulatīvais reljefs par futūristisku AI, skatiet manu pārskatu par AI kā eksistenciālu draudu perspektīvām vietnē saite šeit.

REKLĀMAS

Atgriežoties pie zemes, turpmāk es uzsvēršu AI piesātinātās diplomātijas ceļu mūsu esošajā nejūtīgajā AI.

Veiksim mazliet vēstures izsekošanu.

Mēģinājumi izstrādāt AI, kas kaut kādā veidā iemieso diplomātijas un diplomātiskās uzvedības skaitļošanas piegaršu, ir notikuši kopš AI pirmsākumiem. Varat viegli atgriezties 1950., 1960. un 1970. gados un atrast fundamentālus pētījumus, kas vēlējās piemērot AI šajā jomā. Daži domāja, ka spēles teorija bija atslēga. Citi koncentrējās uz psiholoģiju un ar to saistītajiem kognitīvajiem elementiem. Citi mēģināja izmantot ekonomiku, operāciju izpēti un neskaitāmas šķietami piemērotas darbības jomas.

Sākotnējie uzplaukuma laiki vēlāk notika 1980. gados. Tajā laikā viena dominējošā pieeja bija ekspertu sistēmu (ES) vai uz zināšanām balstītu sistēmu (KBS) izmantošana, lai izveidotu ar diplomātiju saistītas AI sistēmas. Rezultāts bija diezgan nestabils un liecināja, cik grūts uzdevums būs.

REKLĀMAS

Visā šajā sākotnējās izmeklēšanas laikmetā viens no graujošajiem jautājumiem bija nepieciešamība pēc nelokāmas platformas, uz kuras vai kuras ietvaros AI, kas it kā varētu darboties dažos ar diplomātiju saistītos veidos, varētu pienācīgi pārbaudīt un izpētīt. Varbūt šī vajadzība ir acīmredzama. Ja kāds vēlas saprast, vai cilvēks vai mākslīgais intelekts var izmantot diplomātiju, ir jāizveido vide, kas ir labvēlīga šiem meklējumiem.

Šajā attēlā ir iekļauta galda spēle Diplomātija.

Es saprotu, ka galda spēle Diplomātija nav tikpat labi pazīstams kā Monopols, Risks, vai Stratēģija (jūs droši vien esat dzirdējuši par šīm spēlēm). Tomēr ir stratēģiska galda spēle, kas pazīstama kā Diplomātija kas pirmo reizi tika izstrādāts 1954. gadā un komerciāli izlaists 1959. gadā. Papildus spēlēšanai aci pret aci, Diplomātija spēle bieži tika spēlēta, izmantojot gliemežu pastu. Uzrakstiet savus gājienus uz papīra lapas un nosūtāt pa pastu tiem, pret kuriem spēlējāt. Mūsdienās kaut kā traki iedomāties. Vēlāk tika izmantots e-pasts. Galu galā spēle bija pieejama tiešsaistē un ļāva spēlētājiem piedalīties reāllaikā vienam ar otru.

Pēc Diplomātija Kad spēle kļuva pieejama mikrodatoros, AI speciālisti sāka izmantot spēli kā ērtu līdzekli, lai pārbaudītu savus ar mākslīgo intelektu saistītos diplomātijas izdomājumus. The Diplomātija spēle bija pieejama kā lietotne, kas darbojas personālajos datoros, lai cilvēks varētu spēlēt pret mašīnu (ti, izstrādāto AI). AI 1990. gados, kas tika rakstīts atskaņošanai Diplomātija bija bēdīgi lēns, noslēpumains, un to viegli pārspēja gandrīz jebkurš minimāli gudrs, spēlējošs cilvēks.

REKLĀMAS

Šeit ir 1999. gada pārskats par Diplomātija kā publicēts vietnē Yahoo, kas spilgti aprakstīja skumjo bēdu stāvokli, ko rada mākslīgā intelekta piesātinātās diplomātijas spējas kā cilvēka spēlētāja pretinieks:

  • “Tomēr Diplomātijaspilgtākā problēma ir tā, ka mākslīgais intelekts spēlē ir absolūti briesmīgs. Jebkuru prasmju līmeņa spēlētājiem nebūs nekādu problēmu meklēt vaļu datorā pat visaugstākajā grūtības iestatījumā. Uzvara ir vienkārši laika un pacietības jautājums ar saskarni. Nav tā, ka dators neshēmo aiz muguras — tas tā notiek, un tas bieži vien sadarbojas ar sabiedrotajiem, lai atņemtu jums teritoriju vai divas — bet šādas shēmas nāk un sākas, nevis nepārtraukti vai īpaši. izaicinošs drauds.”

Viens no īpaši satraucošajiem AI dizaina trūkumiem bija tas, ka šķita, ka tam trūkst iespēju vienlaikus aprēķināt vairākus gājienus vai stratēģijas: “Un pamata līmenī dators šķiet nespējīgs pārvaldīt vairākas stratēģiskas kustības. Lai gan cilvēks var vienlaikus veikt uzbrukumus Grieķijai un Beļģijai, dators vienmēr, šķiet, koncentrējas tikai uz vienu lietu vienlaikus. Šī iemesla dēļ dators vienkārši nevar konkurēt ar cilvēku spēlētāju” (turpat).

Es vēl neesmu jums paskaidrojis, kas Diplomātija galda spēle sastāv no, tāpēc veltīsim laiku, lai noteiktu pamatnoteikumus.

Ir pieejams ērts pētniecības darbs par AI un spēlēšanu Diplomātija kas īsi aprakstīja spēles būtību: “Spēle notiek 1901. gada Eiropas kartē, kas ir sadalīta 75 provincēs. Katrs spēlētājs spēlē vienu no septiņām tā laika lielvalstīm: Austrija (AUS), Anglija (ENG), Francija (FRA), Vācija (GER), Itālija (ITA), Krievija (RUS) un Turcija (TUR) un katrs spēlētājs. sākas ar trim vai četrām vienībām (armijām vai flotēm), kuras ir novietotas fiksētās sākotnējās pozīcijās kartē. Katrā spēles kārtā katram spēlētājam ir jāiesniedz rīkojums par katru savu vienību, kas norāda šīm vienībām, kā pārvietoties pa karti, un ļauj tām iekarot kartes provinces” (Deivs de Jonge, Tims Bārslags, Reihans Eidogans , Catholijn Jonker, Katsuhide Fujita un Takayuki Ito, “Sarunu izaicinājums diplomātijas spēlē” Līguma tehnoloģijas: 6. starptautiskā konference, AT 2018)

REKLĀMAS

Tāpat jāzina par veidiem, kā uzvarēt un zaudēt spēli: “Dažas Provinces ir t.s. Piegādes centri un spēlētāju mērķis ir iekarot tos piegādes centrus. Spēlētājs tiek izslēgts, kad viņš vai viņa zaudē visus savus piegādes centrus, un spēlētājs uzvar spēli, kad viņš vai viņa ir uzvarējis 18 vai vairāk no 34 piegādes centriem (vienīgā uzvara). Tomēr spēle var beigties arī tad, kad visi izdzīvojušie spēlētāji piekrīt neizšķirtam” (turpat).

Es ticu, ka jūs to varat redzēt Diplomātija ir vienkārša spēle, kurā piedalās līdz pat septiņiem spēlētājiem, kuri cenšas viens otru stratēģiski pārspēt. Šīs manevrēšanas laikā spēlētāji var apspriesties savā starpā, citiem spēlētājiem nezinot, ko viņi dara. Diplomātijas akts izvirzās priekšplānā, spējot panākt, lai citi spēlētāji ievērotu jūsu plānus. Jūs varat atklāt savus patiesos plānus vai arī neatklāt. Jūs varat piedāvāt viltus plānus. Jūs varat vienoties ar citiem spēlētājiem. Jūs varat maldināt citus spēlētājus. Jūs varat izveidot alianses ar citiem spēlētājiem. utt.

Mīlestībā un karā viss ir godīgi, kā saka.

Es izvēlējos šo konkrēto pētniecisko darbu, jo tas bija noderīgs, lai izveidotu datorizētās versijas variantu Diplomātija sauc DipGame kalpot par progresīvu platformu mākslīgā intelekta piesātināto diplomātijas spēju testēšanai: “Hroniski trūkst kopīgu lietojumprogrammu domēnu, lai pārbaudītu progresīvus pētniecības modeļus un aģentu sarunu arhitektūras Multiagent Systems. Šajā rakstā mēs ieviešam šim nolūkam piemērotu testēšanas sistēmu. Testa stends ir balstīts uz Diplomātijas spēle kur sarunām un spēlētāju savstarpējām attiecībām ir būtiska loma” (turpat). Šī un daudzas citas variācijas Diplomātija ir izstrādāti un padarīti pieejami izpētei un spēlēšanai.

REKLĀMAS

Pētnieki paskaidroja, kāpēc viņi tam tic Diplomātija ir tik noderīga spēle, lai palīdzētu mākslīgā intelekta meklējumos uz AI piesātinātu diplomātiju: “Spēle Diplomātija ir lielisks testa piemērs šāda veida sarežģītām sarunām, jo ​​tā ir spēle, kas ietver daudzas grūtības, ar kurām nāktos saskarties arī reālās dzīves sarunās. Tas ietver apmierinātību ar ierobežojumiem, koalīcijas veidošanu, spēļu teoriju, uzticēšanos un pat psiholoģiju. Tagad, kad mūsdienu Chess and Go datori jau ir daudz pārāki par jebkuru spēlētāju, mēs to sagaidām Diplomātija sāks pievērst lielāku uzmanību kā nākamais lielais datorzinātnes izaicinājums” (turpat).

Īsā kopsavilkumā galda spēle Diplomātija nodrošina jau zināmu un zināmā mērā populāru līdzekli, lai liktu cilvēkiem rīkoties dažādos diplomātiskajos veidos. Parasti cilvēki spēlē pret citiem cilvēkiem (šajā gadījumā līdz septiņiem spēlētājiem). Mēs varam izstrādāt AI, kas mēģinātu uzņemties spēlētāja lomu spēlē. Tādējādi jums varētu būt seši cilvēku spēlētāji un viens AI spēlētājs.

Iedomājieties spēlēšanos Diplomātija tiešsaistē.

Ja mēs nestāstām spēlētājiem, ka viņu vidū ir AI, viņi, protams, varētu pieņemt, ka septītais spēlētājs ir tikai cits cilvēks. Lai mēģinātu neļaut spēlētājiem uzminēt, ka spēlē mākslīgais intelekts, mēs varam ierobežot spēles aspektus, nosakot, ka visiem spēlētājiem ir jāsūta viens otram uz tekstu orientētas ziņas. Jūs nevarat tieši redzēt citus spēlētājus.

REKLĀMAS

Jūs varētu domāt, ka tas īpaši neatšķiras no tiešsaistes šaha spēlēšanas. Kāpēc liela ažiotāža par Diplomātija kā spēle?

Atcerieties, ka mēs koncentrējamies uz mijiedarbību starp spēlētājiem. Šīs spēles priekšnoteikums ir tāds, ka spēlētāji piesauc diplomātiju viens pret otru. Tas atšķiras no parastā šaha. Ja es izstrādātu uz AI balstītu šaha spēles lietotni, tā parasti spēlētu pret vienu cilvēku. Starp šahu spēlējošo AI un cilvēku spēlētāju nenotiek nekādas sarunas vai diskusijas. Viņi vienkārši izdara šaha gājienus un cenšas viens otru pārspēt. Tas parasti tiek darīts pilnīgā klusumā.

Diplomātija ļauj mums izmantot atklātu skaitļošanas un uz cilvēku balstītu diplomātiju (iespējams, to darot rakstiski, nevis skaļi): “Galvenā atšķirība starp Diplomātija un citas deterministiskas spēles, piemēram, šahs un iet, ir tas, ka diplomātijā spēlētājiem ir atļauts vienoties savā starpā un veidot koalīcijas. Katrā kārtā, pirms spēlētāji iesniedz savus rīkojumus, spēlētājiem tiek dots laiks sarunām vienam ar otru un vienoties par rīkojumiem, ko viņi iesniegs. Sarunas notiek privāti, un katra noslēgtā vienošanās ir zināma tikai šajā līgumā iesaistītajiem spēlētājiem” (turpat).

Vai jūs varētu izdomāt kādu citu spēli, kas izmanto interaktīvu diplomātiju, nevis paļaujas uz spēli Diplomātija?

Absolūti

REKLĀMAS

Ir dažādas šādas spēles.

Ērtība, izvēloties vienu konkrētu spēles modeli, ir tāda, ka AI izstrādātāji var koncentrēt savu uzmanību uz šo konkrēto spēli. Varat apvienoties, lai izstrādātu AI, kas veic diplomātiju konkrētajā kontekstā. Varat koplietot pieejas un pretstatīt tās. Varat novērtēt dažādus AI gadījumus, pamatojoties uz metriku, kas saistīta ar šo spēli. Un tā tālāk.

To sakot, pretarguments vai izteiktās bažas ir tas, ka tas ir kā visu olu ievietošana vienā grozā. Daži uztraucas, ka, ja daudzi AI izstrādātāji būs aizņemti ar vienu konkrētu platformu vai vidi, piemēram, šajā gadījumā Diplomātija, viņi centīsies optimizēt AI šai konkrētajai arēnai. Negatīvā ietekme ir tāda, ka AI netiks vispārināts. Mēs nepanāksim tik lielu progresu attiecībā uz visaptverošām AI pārņemtās diplomātijas iespējām.

Līdzīgi kā neredzēt mežu kokiem, ja vēlaties.

Vēl viena bieži pausta problēma ir tāda, ka tādas spēles kā Diplomātija ir tikai spēles.

REKLĀMAS

Rodas sarežģīts jautājums, vai cilvēki, kas spēlē spēli, dara to pašu, ko viņi darītu reālās pasaules diplomātijā. Varbūt jūs nerīkojaties tāpat, ja nacionālais lepnums vai nacionālās likmes nav aktuālas. Protams, jūs varētu uztraukties par savu personīgo lepnumu, spēlējot spēli vai, iespējams, mēģinot kļūt par labāko vārtu guvēju, vai varbūt pat laimēt naudas balvas, taču vai tas tomēr nozīmē sarunas par mieru pasaulē Apvienoto Nāciju Organizācijā vai kaulēšanos par to, kuras valstis jābūt vai nav kodolieročiem.

Daži uzskata, ka šīs diplomātijas spēles ir piemēroti reālās pasaules mikrokosmosi. Citi žēlojas, ka spēles ir noderīgas, taču tās neatbilst sakāmvārdu starptautiska mēroga diplomātijai. Var gadīties, ka ar AI piesātinātās diplomātijas spēļu versijas izrādīsies nekas vairāk kā tikai spēļu panākumi. Dievs, izdomātais AI var uzvarēt vai gūt ļoti labus panākumus, spēlējot spēli, kas ietver diplomātiju, lai gan izrādās, ka tā paša AI izmantošana patiesos diplomātiskajos apstākļos ļoti pietrūkst un klibo vai neizdodas.

Šobrīd pieņemsim, ka mākslīgais intelekts ir izstrādāts tādu spēļu spēlēšanai kā Diplomātija tiešām ir vērts. Varētu pamatoti apgalvot, ka neatkarīgi no tā, vai tā ir piemērota tikai spēļu spēlēšanai vai darbībai reālajā pasaulē, šī ideja ietver AI robežu pagarināšanu un AI progresu, kas varētu veicināt diplomātiju vai citus izdevīgus sasniegumus AI veidošanā.

REKLĀMAS

Pagaidām dodiet priekšroku smaidošajai sejai.

Tālāk mēs pārbaudīsim, kā Meta AI ir izvēlējies izveidot ar AI piesātinātu diplomātijas spēlētāju, kas var darboties Diplomātija.

Turiet cepures.

Meta AI un diplomātijas spēlēšanas mašīnas diplomāts Cicerons

Kā minēts iepriekš, ir publicēts pētnieciskais dokuments Zinātne kas apraksta tikko izziņoto un publiski izlaisto Meta AI lietotni, kas izveidota kā Cicero (visā šajā diskusijā es to saukšu ar vārdu “Cicero” un vienlīdz tāpat kā “CICERO” ar lielajiem burtiem):

REKLĀMAS

  • “Mēs piedāvājam Cicero, AI aģentu, kurš stratēģijas spēlē sasniedza cilvēka līmeņa sniegumu Diplomātija. uz Diplomātija, septiņi spēlētāji veic privātas dabiskās valodas sarunas, lai saskaņotu savas darbības, lai gan sadarbotos, gan konkurētu savā starpā. Turpretim iepriekšējie lielie panākumi vairāku aģentu AI ir bijuši tikai pretrunīgās vidēs, piemēram, šahā, Go un pokerā, kur komunikācijai nav nekādas vērtības. Šo iemeslu dēļ Diplomātija ir kalpojis kā izaicinošs etalons vairāku aģentu mācībām” (Meta Fundamental AI Research Diplomacy Team, “Human-Level Play In The Game Of Diplomacy By Combining Language Models With Strategic Reasoning”, Zinātne, 22. gada 2022. novembris).

Es citēšu no papīra un tad piedāvāšu dažādas atziņas, kas, cerams, jūs interesēs.

Ņemot vērā to, ka mākslīgais intelekts ir tikko pieejams, es, visticamāk, veiksu turpmāku analīzi pēc tam, kad būs bijusi iespēja veikt koda dziļu praktisku novērtējumu, kā arī veikt eksperimentālu spēli, lai novērtētu AI iespējas (piemēram, galvenās stiprās un vājās puses).

Esiet uzmanīgs, lai vēlāk publicētu informāciju!

Jebkurā gadījumā es ticu, ka jūs, iespējams, pamanījāt manis tikko citētajā fragmentā, ka ir frāze, kurā teikts, ka AI “stratēģijas spēlē ir sasniegusi cilvēka līmeņa veiktspēju. Diplomātija. "

REKLĀMAS

Pārdomājiet to.

Pirmkārt, tas noteikti ir slavējams, ka ir izdevies izstrādāt AI, kas atskaņo Diplomātija spēle šķietamā veiktspējas līmenī, kas līdzinās cilvēkiem. Tas ir ārkārtīgi svarīgi.

Mums ir daudz Diplomātija spēlē AI, kas ir zemāka par cilvēkiem, kas spēlē Diplomātija spēle. Vairāk nekā jūs varat kratīt nūju. Ir pārliecinoši un aizraujoši virzīties uz augšu uz AI, kas var daudz labāk spēlēt spēli. Tomēr mums ir jābūt piesardzīgiem, izdarot ātrus secinājumus šajā jautājumā.

Piemēram, pieņemsim, ka es būtu izdomājis AI spēlēšanai Diplomātija un es to izvirzīju pret spēlētājiem, kuri nekad iepriekš nav spēlējuši spēli. Ja mans AI pārspēj viņus, būtu nedaudz pārspīlēti teikt, ka mana AI ir veikusi cilvēka līmeņa veiktspēju. Fakts, ka tā rīkojās ar cilvēkiem, kuri nebija pazīstami ar spēli, ir nedaudz uzacis un apšaubāms.

REKLĀMAS

Es to ierosinu, lai brīdinātu jūs vienmēr rūpīgi pārbaudīt visas šķietami lielas prasības par AI. Iepriekšējā diskusija par AI ētiku un AI likumu, iespējams, paver jūsu acis nepatiesu apgalvojumu iespējamībai par AI. Ir klaji nepatiesi apgalvojumi un ir tādi mānīgi, daļēji patiesi un daļēji maldinoši apgalvojumi, kas ir īpaši sašutuši. Galvenais ir jautāt, kāpēc tie, kas apgalvo par savu AI, to dara.

Kur ir liellopu gaļa?

Lūk, ko Meta AI komandai bija jāsaka par viņu cilvēka līmeņa veiktspējas apgalvojuma pamatojumu (papildu informāciju skatiet dokumentā):

  • "Cicerons anonīmi piedalījās 40 Diplomātijas spēlēs "blitz" līgā vietnē webDiplomacy.net no 19. gada 13. augusta līdz 2022. oktobrim. Šī līga spēlēja ar piecu minūšu sarunu pagriezieniem; šīs laika kontroles ļāva spēles pabeigt divu stundu laikā. Cicerons ierindojās labāko 10% dalībnieku, kuri aizvadīja vairāk nekā vienu spēli, un 2. vietā no 19 līgas dalībniekiem, kuri aizvadīja 5 vai vairāk spēles. Visās 40 spēlēs Cicerona vidējais rādītājs bija 25.8%, kas ir vairāk nekā divas reizes lielāks par vidējo rādītāju 12.4% no 82 pretiniekiem. Līgas ietvaros Cicerons piedalījās 8 spēļu turnīrā, kurā piedalījās 21 dalībnieks, no kuriem 6 aizvadīja vismaz 5 spēles. Dalībnieki varēja spēlēt ne vairāk kā 6 spēles, kuru rangs tika noteikts pēc viņu labāko 3 spēļu vidējā rādītāja. Cicerons šajā turnīrā izlikts ar 1. vietu” (turpat).

REKLĀMAS

Ir liels atvieglojums redzēt, ka viņi ir nopietni mēģinājuši atbalstīt savus AI apgalvojumus šajā gadījumā (ņemiet vērā, ka ne visi AI darbinieki to dara).

Jūs varētu ieteikt viņiem veikt eksperimentu. Eksperiments sastāv no spēlētājiem cilvēkiem, kuri, iespējams, nezināja, ka spēlē ar AI spēlētāju savā vidū (darbā ir apspriests, kāpēc tas šķita ticami secināms, proti, cilvēki atklāti neaptvēra, ka viens no spēlētājiem ir AI, lai gan interesanta sānu pieskare ietver stāstu par vienu spēlētāju, kurš kļuva nedaudz aizdomīgs, bet ne īpaši). Šie cilvēki spēlētāji tika iepriekš atlasīti pēc eksperimentālā dizaina rakstura, lai viņi būtu līgas spēlētāji Diplomātija un mēs varam pamatoti secināt, ka viņi labi zināja, kā spēlēt spēli. Viņi nebija iesācēji.

Saskaņā ar ziņoto statistiku, ko mēs uztversim pēc nominālvērtības kā agrāk un pareizi savākti un ziņoti (dažādi dati un kodi ir sniegti papildu materiālos), šķiet, ka mākslīgais intelekts ir spēlējis spēli pietiekami, lai izdarītu ticamu, lai arī šauri ierobežotu secinājumu. ka tas sasniedza cilvēka veiktspējas līmeni šim variantam Diplomātija spēle un, tāpat kā norādītās līgas kontekstā, spēlē pret cilvēkiem, kas bija šķietami pieredzējuši spēlētāji.

Esmu pārliecināts, ka daži no jums varētu vēlēties ķibelēt par spēles gadījumu skaitu, iespējams, apgalvojot, ka tas ir pārāk mazs, lai izteiktu drosmīgus paziņojumus. Vēl viena ķibele varētu būt tāda, ka atrašanās starp labākajiem 10% dalībnieku nav pietiekami augsta, tāpēc, kamēr nav sasniegts augstākais 1%, nevajadzētu lepoties ar AI veiktspēju.

REKLĀMAS

Šīs ķibeles šķiet mazliet asas.

Es to saku, jo, par laimi, apgalvojums par “pārcilvēku” netika izmantots. Lasītāji neapšaubāmi zina par manu nežēlīgo skatījumu uz tiem AI, kas turpina izteikt pārāk lielus paziņojumus, ka viņu AI ir sasniegusi pārcilvēcisku statusu. Es neiedziļināšos savās sūdzībās par pārcilvēciskiem kliedzošajiem apgalvojumiem šeit, lūdzu, skatiet saite šeit par maniem uzskatiem.

Mans viedoklis šajā gadījumā ir tāds, ka es uzskatu, ka norāde uz cilvēka līmeņa veiktspēju, iespējams, ir vispārēji pieļaujama, pieņemot, ka visi patur prātā, ka tas ir ārkārtīgi šaurā kontekstā un ka mēs necenšamies to padarīt par t.s. pārcilvēcisks. Es arī atkārtoju atkal un atkal ierobežotā kontekstā iemesla dēļ, kuru es paskaidrošu tālāk.

Es varu iedomāties, ka daži sociālie mediji vai naivi (iespējams, neslavas cienīgi) reportieri pilnībā izņems no konteksta cilvēka līmeņa snieguma koncepciju.

Lūk, no kā es baidos.

REKLĀMAS

Aizturi savu elpu.

Daži apgalvos, ka AI ir apguvis diplomātiju. Jā, pētījums par izstrādātu AI sistēmu diplomātijai bez šaubām pierādīja, ka AI var un tagad spēj darīt visu, ko cilvēki dara diplomātijas labā.

Sūtiet mājās ārvalstu diplomātus. Mēs varam tos aizstāt ar AI.

Pasaule, kādu mēs to pazīstam, ir mainījusies. Mēs esam izveidojuši mākslīgo intelektu, kas diplomātijā ir pilnībā līdzvērtīgs cilvēkiem, un mēs varam veikt garīgi “loģisku” lēcienu uz domu, ka AI tagad var darīt visu, ko spēj cilvēki. Voila, mēs tagad esam pierādījuši, ka AI ir līdzvērtīgs cilvēkiem. Acīmredzot šis pētījums sniedz skaidrus pierādījumus par jutīgu AI.

Atzīmējiet manus vārdus, tas noteikti būs dažu rakstnieku dīvains, bezatbildīgs un nepatīkams veids.

Es nerunāšu par lietu. Mēs virzāmies tālāk.

REKLĀMAS

Kā darbojas AI?

Šeit ir īss kopsavilkums no dokumenta: “Cicerons savieno vadāmu dialoga moduli ar stratēģisko spriešanas dzinēju. Katrā spēles punktā Cicero modelē, kā citi spēlētāji, visticamāk, rīkosies, pamatojoties uz spēles stāvokli un viņu sarunām. Pēc tam tā plāno, kā spēlētāji var koordinēt to savstarpēju labumu, un veido šos plānus ziņojumos dabiskā valodā” (turpat).

Šajā ātrajā kopsavilkumā ir kumoss.

Ļaujiet man veikt izpakošanu.

Cilvēks spēlētājs, kurš spēlē Diplomātija ir jāparedz, ko darīs citi spēlētāji. Jūs vēlaties mēģināt vienoties ar citiem spēlētājiem un panākt, lai tie atbilstu jūsu plāniem. Viņi mēģinās darīt to pašu ar jums. Viņi var jums melot. Jūs varētu viņiem melot. Jums ir jācīnās ar sešiem citiem spēlētājiem, kuriem visiem ir savi plāni un pieejas.

REKLĀMAS

Šīs spēles vairāku aģentu aspekti ir ļoti svarīgi, lai AI izstrādātu spēles spēles sarežģītības līmeni. AI ir jāseko līdzi tam, ko katrs cilvēks varētu vēlēties darīt, kā arī tam, ko viņi saka, ka vēlas darīt, kā arī jebkādām viltībām, ko viņi dara ar citiem spēlētājiem. Tas ir jāsalīdzina ar to, ko viņi jums saka, ka gatavojas darīt, un arī to, ko jūs viņiem sakāt, ka darīsit.

Reibinoši, bet pietiekami viegli cilvēkiem, parasti.

AI jomā runājot, mēs to dēvējam par prāta teoriju (ToM). Apsveriet, ka jums kā cilvēkam ir tendence teoretizēt par to, ko domā citi cilvēki. Jūs nevarat atvērt kāda prātu un redzēt viņa domas. Jums jāuzmin, kādas ir viņu domas. Jūs varat viņiem jautāt, bet tas, ko viņi jums saka, var būt viņu domas vai viņu domu viltus versija.

Papildus prāta teorijas sarežģītībām mums ir jāpievieno cilvēku valoda šajā neskaidrajā maisījumā.

Kad cilvēks sazinās ar jums savā dabiskajā valodā, teiksim, angļu valodā, ir daudz iespēju kļūdīties un nesazināties. Es jums saku, ka pārņemšu valsti X, bet es kļūdaini saku Y. Oopsie. Vai arī es teicu valsti X, bet jūs kļūdaini domājāt, ka teicu valsti Y. Ja domājat, ka šāda veida neskaidrības nevar notikt, ja visi izmanto īsziņas, jūs kļūdāties. Es varētu ierakstīt ziņojumu, kurā teikts, ka es gatavojos uzbrukt valstij, bet es neminēju, kurai valstij. Iespējams, ir norādīts, kuram es “acīmredzot” uzbruktu. Spēlētājs, kurš saņem manu ziņojumu, varētu pieņemt, ka es netieši atsaucos uz valsti X, bet varbūt es gribēju, lai viņi tā domā.

REKLĀMAS

Tā turpinās un turpinās.

Būtība ir tāda, ka mūsu jaunākie sasniegumi mākslīgā intelekta jomā attiecībā uz dabiskās valodas apstrādi (NLP) un jo īpaši jaunākie ģeneratīvo AI un lielo valodu modeļi (LLM) padara šāda veida dabiskās valodas situāciju gandrīz īstenojamu. Agrāk NLP parasti nebija pietiekami labs, un arī LLM vēl nebija nostiprinājušās.

Agrāk AI sūtīja ziņojumus, kurus jūs gandrīz noteikti uzreiz atpazītu kā rakstītus ar skriptu AI sistēmu. Formulējums nebija raits. Tas bija šablons. Tas bija acīmredzams apliecinājums tam, ka AI ir AI. Mūsdienās ir daudz grūtāk saprast, ka AI šajos kontekstos nav cilvēka spēlētājs.

Kā minēts iepriekš minētajā citātā, šis konkrētais AI ir izstrādāts tā, lai tajā būtu “vadāms dialoga modulis ar stratēģiskā spriešanas dzinēju” (turpat). Dialogs notiek šādi: “Cicerons ģenerē dialogu, izmantojot iepriekš apmācītu valodas modeli, kas tika tālāk apmācīts, izmantojot dialoga datus no cilvēku spēlēm. Diplomātija. Būtiski, ka dialoga modelis bija ne tikai balstīts gan uz dialoga vēsturi, gan spēles stāvokli, bet arī tika apmācīts tā, lai tas būtu kontrolējams, izmantojot nodomus, ko mēs šeit definējam kā plānotu darbību kopumu aģentam un tā runājošajam partnerim.

REKLĀMAS

Ievērojiet, ka domēna iestatījums ir ļoti svarīgs. Ja jūs apmācītu tikai parasta rakstura dialogus internetā, tas ne vienmēr būtu piemērots Diplomātija spēles konteksts. Tie, kas spēlē spēli, ir pieraduši pie sava veida stenogrāfa veida, lai apspriestu spēli un piedāvātos gājienus. Jūs vēlaties, lai AI darītu tāpat. Tādējādi ievērības cienīga pieeja ir valodas modeļa apmācība uz domēna specifiskiem dialoga datiem.

Par norādīto stratēģisko spriešanas dzinēju viņi saka: “Cicerons izmanto stratēģiskās spriešanas moduli, lai gudri atlasītu nodomus un darbības. Šis modulis palaiž plānošanas algoritmu, kas prognozē visu pārējo spēlētāju politikas, pamatojoties uz spēles stāvokli un līdzšinējo dialogu, ņemot vērā gan dažādu darbību stiprumu, gan to iespējamību cilvēku spēlēs, un izvēlas optimālu darbību Ciceronam, pamatojoties uz šīm prognozēm. . Plānošana balstās uz vērtību un politikas funkciju, kas tiek apmācīta, izmantojot pašspēli RL, kas sodīja aģentu par pārāk tālu novirzīšanos no cilvēka uzvedības, lai saglabātu ar cilvēkiem saderīgu politiku” (turpat; ņemiet vērā, ka RL ir saīsinājums vārdam “Reforcement Learning”).

Spēles laikā visi spēlētāji pārkalibrē savas pozīcijas pēc katra gājiena. Jūs nevarat iedziļināties šajā spēlē ar iepriekš noteiktu fiksētu stratēģiju, kas ir neelastīga un akmenī iemesta. Jums ir jāmaina savas darbības, pamatojoties uz to, ko dara citi spēlētāji. AI jābūt ieprogrammētam, lai tas darītu tāpat. Nav statiskas stratēģijas kā tādas. Tā vietā turpiniet soli pa solim informēt situāciju, izdomājot, kādi ir nākamie labākie soļi.

AI tehnoloģiskie pamati tika izstrādāti šādi: “Mēs ieguvām datu kopu ar 125,261 XNUMX spēles Diplomātija spēlēja tiešsaistē vietnē webDiplomacy.net. No tām 40,408 12,901,662 spēlēs bija dialogs, kopā spēlētājiem apmainoties ar XNUMX XNUMX XNUMX ziņojumiem. WebDiplomacy veica spēlētāju kontu identifikāciju, un personiski identificējamās informācijas (PII) automatizētu rediģēšanu. Mēs šo datu kopu turpmāk dēvējam par WebDiplomacy” (turpat).

Līdzīgi tam, kā jūs varat apmācīt AI spēlēt šahu, tādējādi iegūstot miljardiem šaha partiju un liekot AI veikt modeļu saskaņošanu par to, kā spēles tika spēlētas, AI šim nolūkam. Diplomātija spēļu spēlēšana bija salīdzinoši izveidota.

Tie, kas pārzina mākslīgo intelektu, varētu būt ziņkārīgi par to, kurus bāzes modeļus viņi izmantoja: “Mēs izmantojām R2C2 (22) kā savu bāzes modeli — 2.7 B parametra transformatora kodētāja-dekodētāja modeli, kas iepriekš apmācīts tekstu no interneta, izmantojot BART trokšņa samazināšanas objektīvu. Pamata iepriekš sagatavotais modelis tika tālāk apmācīts WebDiplomacy, izmantojot standarta maksimālās iespējamības novērtējumu” (turpat).

Turklāt viņi izmantoja nedaudz neparastu un intriģējošu pieeju citu spēlētāju modelēšanai, ņemot vērā viņu nosacīto politiku: “Populāra pieeja kooperatīvās spēlēs ir modelēt citu spēlētāju politiku, izmantojot uzraudzītu mācīšanos no cilvēku datiem, kas parasti ir dēvēta par uzvedības klonēšanu (BC). Tomēr tīrs BC ir trausls, jo īpaši tāpēc, ka uzraudzīts modelis var uzzināt nepareizas korelācijas starp dialogu un darbībām. Lai risinātu šo problēmu, Cicero izmantoja piKL (26) variantus, lai modelētu spēlētāju politiku. piKL ir iteratīvs algoritms, kas prognozē politiku, pieņemot, ka katrs spēlētājs i cenšas gan palielināt savas politikas πi paredzamo vērtību, gan samazināt KL atšķirību starp πi un BC politiku, ko mēs saucam par enkura politiku τi (turpat).

Es domāju, ka tas aptver augšējās līnijas aspektus un sniedz jums pienācīgu priekšstatu par to, ko AI dara un kā tas veic noteikto uzdevumu.

Secinājumi

Es vēlētos pieminēt vēl daudz ko, taču es ilgi skatos uz šo diskusiju un mēģināšu aptvert tikai dažus galvenos aspektus. Nākamajā ierakstā es centīšos aptvert vairāk.

Vai esat kādreiz dzirdējuši par ieslodzīto dilemmu?

Tā ir klasiska ar lēmumiem saistīta problēma.

Ieslodzīto dilemma ir saistīta ar to, ka jums ir jāizlemj, vai jūs apvainosieties vai apspēlēsiet ieslodzīto. Otrs ieslodzītais, iespējams, var arī jūs izputināt. Ir tāda atalgojuma funkcija, ka, ja jūs izsitīsit otru ieslodzīto, bet viņi jūs neizdzen, tas jums ir sava veida uzvara. Ja viņi jūs sagrauj, bet jūs viņus nebaidāt, tā viņiem ir sava veida uzvara un jums zaudēta poza. Ja jūs abi izsitīsit viens otru, jūs abi būtībā zaudējat. Detalizēti skatiet manu pārklājumu vietnē saite šeit.

Kādu stratēģiju jūs izstrādātu, saskaroties ar ieslodzīto dilemmu?

Ja tas bija vienreizējs darījums, jūs varat gandrīz uzmest monētu. Ja situācija atkārtotos atkal un atkal un jums būtu darīšana ar to pašu citu ieslodzīto, jūs varētu atrast modeli, kas varētu parādīties. Viens no populārākajiem un bieži ieteiktajiem modeļiem ir pazīstams kā zīle par labu. Neatkarīgi no tā, ko dara otrs ieslodzītais, jūs darāt to pašu nākamajā gājienā. Ja viņi tevi nebaidīs, tu viņus nebaidi. Ja viņi jūs izsitīs, tad nākamajā gājienā jūs tos izsitīsit.

Jūs varētu būt neizpratnē, kā tas ir saistīts ar mākslīgā intelekta pārņemto diplomātiju spēles laikā Diplomātija.

Lūk, darījums.

Sarunās ar citiem bieži nākas izlemt, vai stāstīt viņiem patiesību vai melot. Melošanas problēma ir tāda, ka, ja jūs pieķersieties melos, otrs, iespējams, turpmāk jums vairs neuzticēsies. Iespējams, ka sākumā viņi jums nav pilnībā uzticējušies, taču tagad, kad esat parādījis savu roku, ka patiešām melojat, viņi neapšaubāmi nolems, ka esat melis.

Daži spēlētāji no Diplomātija pastāvīgi melo. Viņi uzskata, ka šī ir labākā stratēģija. Meli, meli un vēl meli. Citi spēlētāji rīkojas pilnīgi pretēji. Viņi apgalvo, ka vēlaties atturēties no meliem, ja varat to darīt. Izmantojiet melus tikai visnepieciešamākajās situācijās. Saudzējot melus, jūs varat veidot uzticību citiem spēlētājiem. Kad esat nogājis melīgo ceļu un esat atklāts, neviens neticēs nevienam jūsu teiktajam vārdam.

Dokumentā, kurā aprakstīts Cicerons, šis apsvērums ir minēts: “Visbeidzot, diplomātija ir īpaši izaicinoša joma, jo panākumiem ir jāveido uzticēšanās starp citiem vidē, kas mudina spēlētājus nevienam neuzticēties. Katra gājiena darbības notiek vienlaicīgi pēc nesaistošām, privātām sarunām. Lai gūtu panākumus, aģentam ir jāņem vērā risks, ka spēlētāji var nepalikt uzticīgi savam vārdam vai ka citi spēlētāji paši var šaubīties par aģenta godīgumu” (turpat).

Saskaņā ar dokumentu un īsajiem video, pētnieki galu galā atklāja, ka AI pēc iespējas vairāk stāsta patiesību, šķiet, ir labāka vispārējā stratēģija. Savā ziņā jūs to varētu pielīdzināt ieslodzīto dilemmas zīlei. Sāciet ar patiesības stāstīšanu. Ja tavs pretinieks stāsta patiesību, tu turpini stāstīt patiesību. Ja viņi sāk melot, jums ir jāizvērtē, vai turpināt runāt patiesību vai pāriet uz melošanu.

Var pieņemt, ka tas ir sirsnīgs atklājums.

Paturiet prātā, ka sarežģītā un intriģējošā daļa Diplomātija ir tas, ka jūs to darāt attiecībā uz sešiem citiem spēlētājiem (pazīstama kā vairāku aģentu problēma). Jūs varētu būt ļoti patiess pret viņiem visiem. Vai varbūt patiesība dažiem, bet ne citiem. Ir arī tāds aspekts, ka, tiklīdz jūs melojat un esat pieķerts melos vienam otram spēlētājam, to var novērot vai izsecināt citi spēlētāji. Tāpēc ir zināms vai tiek pieņemts, ka jūs melojat, pat ja neesat melojis kādam konkrētam spēlētājam, par kuru jūs cerat, ka esat patiess un pret kuru jūs mēģināt būt patiess.

Cilvēki mēdz izdomāt un attīstīt savas melu un patiesības pieejas, īstenojot diplomātiju. Situācijas atkarības var būt milzīgs faktors. Likmes uz līnijas ir ļoti svarīgas. Nospēlē daudzi faktori.

Būtu aizraujoši, ja AI būtu ievadīts Diplomātija Mašīnbāzēts spēlētājs spēlē ļoti daudz spēļu, lai redzētu, kādi rezultāti varētu ieteikt galveno.

Mēs varētu arī vēlēties salīdzināt AI ar mazāk nekā sešiem citiem spēlētājiem, lai redzētu, kā tas maina lietas. Mēs varētu arī pievienot AI, jo tas ir vairāk nekā viens spēlētājs. Piemēram, pieņemsim, ka mums ir pieci spēlētāji un divi AI atskaņotāji (mēs iestatīsim AI atskaņotājus kā atsevišķus gadījumus, lai tie skaitļošanas ziņā nebūtu viens un tas pats). Kā ar četriem cilvēkiem un trim AI? Kā ar sešiem AI un vienu cilvēku?

Vēl viena iespēja būtu AI pretstatīt tikai AI. Tādā veidā mēs varētu izskriet cauri gaziljoniem spēļu ātrā secībā. Septiņu atšķirīgu AI gadījumu iestatīšana. Katrs ir savs atsevišķs spēlētājs. Tā kā tas viss ir datorā, mēs varam tos palaist bez pārtraukuma un radīt tūkstošiem vai miljoniem spēļu gadījumu.

Protams, problēma ar AI pret AI ir tāda, ka esam noņēmuši cilvēku spēlētājus. Mēs nezinām, ka AI pret AI atspoguļo to, ko cilvēku spēlētāji darītu. Jebkurā gadījumā var saskatīt dažus interesantus rezultātus.

Es jau iepriekš biju norādījis, ka viens no šāda veida AI ierobežojumiem ir tas, ka tas parasti ir šauri fokusēts. Mēs nevaram viegli zināt, ka AI, kas spēlē Diplomātija būs piemērojami reālās pasaules diplomātijā. Turklāt, iespējams, AI, kas labi darbojas Diplomātija nedarbosies īpaši labi citās uz diplomātiju orientētās tiešsaistes spēlēs. Tas var nepāriet un tā vietā būt sava veida viena trika ponijs.

Kā teikts pētījumā par formulējumu DipGame:

  • “Mēs iebilstam, ka reālās sarunās ir svarīgas zināšanas par jomu un jāprot par to argumentēt. Nevar, piemēram, cerēt uz izdevīgiem darījumiem antīkajā biznesā bez jebkādām zināšanām par antikvariātu neatkarīgi no tā, cik labi prot kaulēties. Turklāt labam sarunu vedējam jāprot arī argumentēt par savu pretinieku vēlmēm. Piemēram, labs automašīnu pārdevējs mēģinātu noskaidrot, kāda veida automašīna vislabāk atbilst viņa klienta vajadzībām, lai palielinātu izredzes noslēgt izdevīgu darījumu” (kā iepriekš citēti: Andžela Fabregesa un Karless Sjerra, “DipGame: A Challenging Negotiation Testbed", Mākslīgā intelekta inženierijas pielietojumi, 2011. gada oktobris).

Tiklīdz AI apguve Diplomātija Ja tas notiek, visu uzmanību vajadzētu pievērst AI izmantošanai vai atkārtotai izmantošanai, lai risinātu citas ar diplomātiju saistītas spēles. Turklāt būtu jāizpēta centieni izmantot AI reālās pasaules diplomātijas apstākļos.

Pagaidām beigšu ar dažiem ētiskajiem AI apsvērumiem.

Pirmkārt, bija pārliecinoši pamanīt, ka Meta AI komanda atzina, ka viņu darbs ietver AI ētikas sekas. Rodas satraucoši jautājumi. Vai ir pareizi “muļķot” cilvēkus, lai viņi spēlē pret AI, nepasakot, ka viņi to dara? Vai mākslīgā intelekta radītajā dabiskajā valodā nejauši var būt aizvainojoši formulējumi, kas tiek nodoti spēlētājiem? Un tā tālāk.

Noteikti apskatiet, kā viņi risināja problēmas saistībā ar ētisku mākslīgā intelekta problēmām sava raksta papildu materiālos (SM): “Šī pētījuma ētiskos apsvērumus mēs apspriežam tālāk SM, tostarp datu izmantošanas privātuma apsvērumus (SM, § A.1), iespējamais kaitējums, ko rada toksiskas vai neobjektīvas valodas ģenerēšana (SM, A.2. punkts), mērķtiecīgas dialoga tehnoloģijas ļaunprātīgas izmantošanas iespējas (SM, A.3. punkts) un AI aģenta izpaušana spēlētājiem (SM). , §A.4)” (turpat).

Mums ir nepieciešams vairāk AI izstrādātāju un viņu vadības, lai apzinātos ētisko AI un veiktu apdomīgus pasākumus, lai AI darbā būtu uzmanīgi un saprātīgi. Turklāt viņiem ir jāpārliecinās, ka viņi ir pārskatāmi par to, kādas ētiskas AI darbības viņi ir veikuši un kādus pieņēmumus viņi ir izdarījuši.

Mans pēdējais postenis šobrīd ir saistīts ar vispārēju satraukumu antropomorfizācija UZ.

Ja mēs uzlabosim AI, lai tas šķitīs ļoti diplomātisks, vai tas maldinās cilvēkus pieņemt vai uzskatīt, ka AI visādā ziņā ir līdzvērtīgs cilvēkiem?

Tā ir viegla slidena nogāze. Neveiksmīgs AI, ar kuru jūs mijiedarbojaties, norāda uz to, ka tas, iespējams, ir AI, nevis cilvēks. Nevainojami iterēts mākslīgais intelekts, kas izskatās pēc augstākās diplomātiskās nosvērtības, visticamāk, liks cilvēkiem bez vilcināšanās iekrist slazdā, ka AI ir cilvēks, tostarp tā, it kā tai būtu cilvēka veselais saprāts un visas cilvēku izpratnes spējas.

Pievērsiet uzmanību arī tam, kā tas var tikt izmantots a Diplomātija spēle. Cilvēks spēlētājs, kurš redz gandrīz poētiskus šķietamus ziņojumus no cita spēlētāja, varētu saprast, ka tam ir jābūt AI (tagad daudz tālāk par iepriekšējo neveiklo AI), turpretim citi cilvēki nespētu tik skaidri sastādīt ziņojumus. Protams, ja mākslīgais intelekts turpina pielāgoties, tas var mainīt poētisko formulējumu, lai vairāk atspoguļotu faktisko cilvēku spēlētāju īso un neķītro formulējumu. Savukārt cilvēku spēlētāji varētu pāriet uz poētisku valodu, cenšoties atdot, ka viņi ir cilvēki. Ideja ir tāda, ka, iespējams, citi spēlētāji būs gatavi saskaņoties ar citiem cilvēkiem, izmantojot AI.

Nākamā lieta, ko jūs zināt, spēle sāk pārvērsties par mēģinājumu noskaidrot, kurš ir cilvēks un kurš ir AI. Ja varat noskaidrot, kurš ir kurš, iespējams, tas dod jums priekšrocības. No otras puses, tas varētu būt par nē. AI varētu būt tikpat gudrs spēlē kā cilvēki. Jūsu minējumi par to, kurš ir kurš, jums neko nedod. Tas varētu traucēt koncentrēties tikai uz uzvaru spēlē neatkarīgi no tā, vai pie rokas ir AI spēlētāji vai cilvēki.

Pētniekiem, kuri vēlas veikt dažus cilvēka faktoru pētījumus par šāda veida prātu sagrozošām koncepcijām, jūs varētu apsvērt iespēju izmantot mākslīgo intelektu. Diplomātija spēlētāju un meklējiet, kas vēlas Diplomātija līgas turnīros, lai izpētītu radušās cilvēka un mākslīgā intelekta identifikācijas un uzvedības pielāgošanas stratēģijas.

Pabeigsim šo.

Marks Tvens par diplomātiju ir teicis: "Dodu un ņemšanas princips ir diplomātijas princips - dod vienu un ņem desmit." Vai tas ir godīgs novērtējums par to, kā cilvēki darbojas, vai arī tas ir tikai humors ar mēli, kas ciniski, bet nepareizi novērtē cilvēka stāvokli?

Apdomājiet šos papildu jautājumus:

  • Ja mēs varam AI ieviest diplomātiju, vai tas mums mācīs par to, kā cilvēki īsteno diplomātiju un, iespējams, ļaus cilvēcei pilnveidot diplomātijas mākslu?
  • Vai mēs radīsim mākslīgā intelekta viltus, kas, šķiet, ir jūtīgas, ja tas nav nekas līdzīgs, jo tas viss ir saistīts ar truša izvilkšanu no cepures, lai šķietami demonstrētu cilvēkiem līdzīgu diplomātiju?
  • Vai ir iespējams atrast līdzsvaru starp to, ka mākslīgais intelekts ir piesātināts ar diplomātiju, lai tikmēr tiktu brīdināts, ka tas joprojām ir tikai ikdienišķs mākslīgais intelekts un tāpēc nevajadzētu to antropomorfizēt?

Viņi saka, ka diplomātija ir māksla ļaut kādam citam izvēlēties savu. Pārliecināsimies, ka mūsu ceļš ir cilvēka, nevis AI ceļš. Lai gan runājot par diplomātisku, tagad, kad es par to rūpīgi pārdomāju un gadījumā, ja mēs nonāksim pie AI virsniekiem, varbūt mums vajadzētu pieļaut, ka mūsu veids ir AI veids, kas, cerams, saplūst ar piemērotu cilvēku veidu.

Vienkārši mēģinu īstenot nedaudz viltīgas diplomātijas.

Avots: https://www.forbes.com/sites/lanceeliot/2022/11/23/meta-ai-unveils-ai-infused-diplomatic-charmer-which-stirs-ai-ethics-and-ai-law- indelicate-tiff/