AI ētika un mākslīgā intelekta izraisīta psiholoģiskā inokulācija, lai palīdzētu cilvēkiem ar dezinformāciju

Ko mēs darīsim ar milzīgo dezinformācijas un dezinformācijas pārpilnību?

Tas viss acīmredzami kļūst arvien sliktāk un sliktāk ar katru dienu.

Varbūt mākslīgais intelekts (AI) var nākt mums palīgā. Jā, tā ir, iespējams, mēs spēsim izmantot AI labvēlīgos lietojumus, lai tiktu galā ar mūsu nerimstošo dezinformācijas un dezinformācijas cunami. Mēs varētu būt gudri mēģināt to darīt. Šķiet, ka katrs potenciālā risinājuma ceļš ir meklējams.

Starp citu, es vēlētos nekavējoties atzīt un atzīmēt, ka mākslīgais intelekts neapšaubāmi to darīs Arī būt daļa no problēmas. Nav šaubu, ka cilvēki var viegli izmantot AI, lai radītu dezinformāciju un dezinformāciju. Turklāt mākslīgais intelekts var tikt viltīgi izmantots, lai dezinformāciju un dezinformāciju liktu par apbrīnojami pamatotu un liktu cilvēkiem noticēt, ka sniegtā informācija ir valdzinoši precīza un patiesa. Izteikti skumja sejas puse tam, ko AI piedāvā. Mēs atgriezīsimies pie šīs negatīvās mīklas šīs diskusijas beigās.

Pagaidām uzvilksim savas smaidošas sejas un izpētīsim, kā mākslīgais intelekts ir labvēlīgs, lai dezinformāciju un dezinformāciju nogādātu uz ceļiem. Viena no svarīgākajām niansēm būs tāda, ka tas viss saplūst ar būtiskiem AI ētikas elementiem. Mana sleja par AI ētiku un ētisko AI ir nepārtraukta un plaša, tostarp saite šeit un saite šeit, tikai nosaukt dažus.

Apsveriet šos stūrakmeņus, kā AI var būt īpaši noderīgs sabiedrotais cīņā pret dezinformāciju un dezinformāciju:

  • Apstāties pie Get-Go: AI var izmantot, lai atklātu un mēģinātu izņemt dezinformāciju un dezinformāciju, pirms tā tiek atklāta
  • Filtrs pirms apskates: AI var izmantot, lai filtrētu dezinformāciju un dezinformāciju, lai jums nebūtu jāuztraucas par to
  • Sagatavojiet jūs imunitātei: AI var izmantot, lai stiprinātu jūsu gatavību un spēju cīnīties ar dezinformāciju un dezinformāciju (nedaudz formāli zināma kā sava veida psiholoģiska potēšana).
  • cits

Pirmā uzskaitītā aizzīme ietver mēģinājumu apturēt dezinformāciju un dezinformāciju pēc iespējas agrākā brīdī, pirms saturs nonāk pasaulē.

Šī ir ļoti problemātiska pieeja. Daži skaļi iebilst, ka tas varētu būt Lielā brāļa mēģinājums apspiest vārda brīvību. Cik tālu šis AI spētu iet? Vai tas varētu liegt cilvēkiem brīvi paust savu viedokli? Tas briesmīgi var kļūt par slidenu mākslīgā intelekta nogāzi, kas galu galā kļūst par ļaunāko rezultātu ļaunāko murgu, kas nevainīgi sākās ar vislabākajiem nodomiem.

Esmu pārliecināts, ka jūs sapratāt attēlu.

Otrais punkts ir nedaudz mērenāks un liecina, ka mēs varētu izmantot AI, lai filtrētu saturu.

Iespējams, jums ir AI filtra robots, kas skenēs visas jūsu ienākošās datu plūsmas no dažādām ziņām un citiem avotiem. AI ir pielāgots, lai uztvertu jebkādu dezinformāciju vai dezinformāciju, kas atbilst jūsu personīgajiem kritērijiem. Tādējādi šādā scenārijā tā nav Big Brother cenzūras situācija. Jūs kontrolējat AI un to, kā tas jūsu vārdā filtrē jūsu īsto informācijas iesūtni.

Izklausās diezgan labi.

Tomēr ir dažas ievērības cienīgas bažas.

Piemēram, mēs jau esam ļoti polarizēti savos uzskatos, un šī AI izmantošana var padarīt šo polarizāciju dziļāku un tumšāku. Iedomājieties, ka ar šo gludo AI, kas darbojas bez pārtraukuma 24 x 7, jums nekad nav jāredz ne kripatiņa informācijas, kuru esat klasificējis kā potenciāli dezinformāciju un dezinformāciju. Tagad ir gandrīz garantēts, ka jūsu polarizētā perspektīva paliks neskarta. Visas dienas garumā un ikreiz, kad vēlaties apskatīt informāciju, kas gaida jūsu uzmanību, tā vienmēr ir pilnībā iepriekš atlasīta, un nav iespējas uzmest aci tā sauktajai dezinformācijai un dezinformācijai.

Es saku, ka dezinformācija un dezinformācija var būt ts jo pastāv ārkārtīgi daudz strīdu par to, kas patiesībā ir dezinformācija un dezinformācija. Daži eksperti uzstāj, ka ir absolūts pamats, lai noskaidrotu, kas ir dezinformācija un kas ir dezinformācija. Ir pareizi un nepareizi. Visu var aprēķināt, nekļūdoties, ka kaut kas ir vai nu dezinformācija, vai dezinformācija.

Ne visi uzskata, ka lietas ir tik skaidras.

Sakāmvārdā teiktais, ka ir vai izslēdz viens otru izslēdzošo dihotomijas kontrastu, tiek uzskatīts, ka tas ir maldinošs priekšstats. Vienas personas dezinformāciju nevar uzskatīt par dezinformāciju citai personai. Tāpat par dezinformāciju. Apgalvojums ir tāds, ka dezinformācija un dezinformācija atšķiras pēc būtības un apjoma. Mēģināt galīgi klasificēt visu informāciju vienā vai otrā kaudzē ir daudz grūtāk, nekā liek domāt, vicinot roku.

Būtība ir tāda, ka otrajam punktam par AI izmantošanu kā filtrēšanas mehānismu ir savi kompromisi. Nav šaubu, ka mākslīgais intelekts arvien vairāk tiks izmantots šim nolūkam. Tajā pašā laikā mums ir jāņem vērā izaicinājumi, ko šāds AI izvirzīs priekšplānā. AI kā dezinformācijas un dezinformācijas filtrs nav kaut kāda sudraba lode vai slam dunk.

Tas mūs noved pie trešā punkta, proti, iespēja izmantot AI, lai cilvēki labāk tiktu galā ar dezinformāciju un dezinformāciju.

Es šaubos, vai jūs, iespējams, esat daudz dzirdējis par šo trešo AI izmantošanas veidu šajā kontekstā. Tas tikai sāk parādīties. Tagad jūs atrodaties visprogresīvākā jomā, kas, iespējams, pieaugs un pakāpeniski tiks izmantota. Tomēr, lūdzu, ņemiet vērā, ka, šai popularitātei pieaugot, arī strīdi par to, vai tā ir piemērota pieeja, kļūs ļoti redzami.

Daļa no problēmas ir tāda, ka AI zināmā mērā tiek izmantots tam, ko daži nievājoši dēvētu spēlējot prāta spēles ar cilvēkiem.

Tas šķiet draudīgi.

Tas mūs arī noved pie AI ētikas jomas.

Tas viss attiecas arī uz saprātīgi pamanāmajām bažām par mūsdienu mākslīgo intelektu un jo īpaši par mašīnmācības un dziļās mācīšanās izmantošanu kā tehnoloģiju veidu un to, kā tās tiek izmantotas. Redziet, ir ML/DL lietojumi, kas parasti ietver AI antropomorfizāciju plašai sabiedrībai, ticot vai izvēloties pieņemt, ka ML/DL ir vai nu jūtīgs AI, vai tuvu tam (tā nav). Turklāt ML/DL var ietvert skaitļošanas modeļu saskaņošanas aspektus, kas ir nevēlami vai pilnīgi nepareizi, vai nelikumīgi no ētikas vai juridiskā viedokļa.

Varētu būt noderīgi vispirms precizēt, ko es domāju, runājot par AI kopumā, kā arī sniegt īsu pārskatu par mašīnmācīšanos un padziļinātu mācīšanos. Pastāv liela neskaidrība par to, ko nozīmē mākslīgais intelekts. Es arī vēlētos jūs iepazīstināt ar AI ētikas priekšrakstiem, kas būs īpaši neatņemama šī diskursa daļa.

Ieraksta par AI paziņošana

Pārliecināsimies, ka esam vienisprātis par mūsdienu AI būtību.

Mūsdienās nav AI, kas būtu jūtīgs.

Mums šī nav.

Mēs nezinām, vai jutīgais AI būs iespējams. Neviens nevar precīzi paredzēt, vai mēs sasniegsim jutīgu AI, kā arī to, vai jutīgais AI kaut kā brīnumainā kārtā spontāni radīsies skaitļošanas kognitīvās supernovas veidā (parasti saukta par Singularitāti, skatiet manu pārklājumu vietnē saite šeit).

Saprotiet, ka mūsdienu mākslīgais intelekts nespēj “domāt” tādā pašā veidā kā cilvēka domāšana. Kad jūs mijiedarbojaties ar Alexa vai Siri, sarunu spējas var šķist līdzīgas cilvēka spējām, taču patiesībā tās ir skaitļošanas iespējas un tām trūkst cilvēka izziņas. Jaunākajā AI laikmetā ir plaši izmantota mašīnmācīšanās un dziļā mācīšanās, kas izmanto skaitļošanas modeļu saskaņošanu. Tas ir novedis pie AI sistēmām, kas izskatās pēc cilvēkiem līdzīgas tieksmes. Tikmēr mūsdienās nav neviena mākslīgā intelekta, kam būtu veselais saprāts un arī cilvēka spēcīgas domāšanas kognitīvi brīnumi.

Daļa no problēmas ir mūsu tendence antropomorfizēt datorus un jo īpaši AI. Ja šķiet, ka datorsistēma vai AI darbojas tā, kā mēs saistām ar cilvēka uzvedību, ir gandrīz nepārvarama vēlme sistēmai piedēvēt cilvēka īpašības. Tā ir izplatīta garīga lamatas, kas var satvert pat visnepatīkamāko skeptiķi par iespējām sasniegt saprātu.

Zināmā mērā tāpēc AI ētika un ētiskais AI ir tik svarīga tēma.

AI ētikas priekšraksti liek mums saglabāt modrību. AI tehnologi dažkārt var būt aizņemti ar tehnoloģijām, jo ​​īpaši ar augsto tehnoloģiju optimizāciju. Viņi ne vienmēr ņem vērā lielākas sabiedrības sekas. Lai izstrādātu atbilstošu AI, tostarp novērtētu, kā AI ētika tiek pieņemta uzņēmumos, ir ļoti svarīgi ievērot AI ētikas domāšanu un to darīt AI attīstībā un darbības jomā.

Papildus AI ētikas priekšrakstu izmantošanai kopumā ir attiecīgs jautājums par to, vai mums vajadzētu pieņemt likumus, kas regulētu dažādus AI lietojumus. Federālā, štata un vietējā līmenī tiek pieņemti jauni likumi, kas attiecas uz AI izstrādes diapazonu un raksturu. Centieni izstrādāt un pieņemt šādus likumus notiek pakāpeniski. AI ētika kalpo vismaz kā pārdomāts pārtraukums, un gandrīz noteikti zināmā mērā tiks tieši iekļauts šajos jaunajos likumos.

Ņemiet vērā, ka daži nelokāmi apgalvo, ka mums nav vajadzīgi jauni likumi, kas aptver AI, un ka mūsu esošie likumi ir pietiekami. Viņi brīdina, ka, ja mēs ieviesīsim dažus no šiem AI likumiem, mēs nogalināsim zelta zosu, ierobežojot AI sasniegumus, kas sniedz milzīgas sabiedrības priekšrocības. Skatiet, piemēram, manu pārklājumu vietnē saite šeit.

Iepriekšējās slejās esmu apskatījis dažādus valsts un starptautiskos centienus izstrādāt un ieviest likumus, kas regulē AI, sk. saite šeit, piemēram. Esmu apskatījis arī dažādus mākslīgā intelekta ētikas principus un vadlīnijas, ko ir noteikušas un pieņēmušas dažādas valstis, tostarp, piemēram, Apvienoto Nāciju Organizācijas centienus, piemēram, UNESCO AI ētikas kopumu, ko pieņēma gandrīz 200 valstis, sk. saite šeit.

Šeit ir noderīgs ētisko AI kritēriju vai raksturlielumu saraksts attiecībā uz AI sistēmām, kuras esmu iepriekš rūpīgi izpētījis.

  • Caurspīdīgums
  • Taisnīgums un godīgums
  • Ne-ļaunprātība
  • atbildība
  • Privātums
  • Labums
  • Brīvība un autonomija
  • Uzticēties
  • Ilgtspējība
  • cieņa
  • Solidaritāte

Šie AI ētikas principi ir nopietni jāizmanto AI izstrādātājiem, kā arī tie, kas pārvalda AI izstrādes centienus, un pat tie, kas galu galā veic AI sistēmu apkopi un uzturēšanu. Visas ieinteresētās puses visā AI izstrādes un lietošanas dzīves ciklā tiek uzskatītas par ētiskā AI noteikto normu ievērošanu. Tas ir svarīgs akcents, jo parasti tiek pieņemts, ka “tikai kodētāji” vai tie, kas programmē AI, ir pakļauti AI ētikas jēdzieniem. Kā jau iepriekš tika uzsvērts, ir nepieciešams ciemats, lai izstrādātu un ieviestu mākslīgo intelektu, un tam visam ciematam ir jābūt pieredzējušam un jāievēro AI ētikas priekšraksti.

Turēsim lietas piezemētas un koncentrēsimies uz mūsdienu skaitļošanas nejūtīgo AI.

ML/DL ir skaitļošanas modeļu saskaņošanas veids. Parastā pieeja ir tāda, ka jūs apkopojat datus par lēmumu pieņemšanas uzdevumu. Jūs ievadāt datus ML/DL datoru modeļos. Šie modeļi cenšas atrast matemātiskos modeļus. Pēc šādu modeļu atrašanas, ja tādi tiek atrasti, AI sistēma izmantos šos modeļus, sastopoties ar jauniem datiem. Uzrādot jaunus datus, pašreizējā lēmuma pieņemšanai tiek piemēroti modeļi, kuru pamatā ir “vecie” vai vēsturiskie dati.

Es domāju, ka jūs varat uzminēt, kurp tas virzās. Ja cilvēki, kas ir pieņēmuši pieņemtus lēmumus, ir iekļāvuši nevēlamus aizspriedumus, pastāv iespēja, ka dati to atspoguļo smalki, bet nozīmīgi. Mašīnmācīšanās vai dziļās mācīšanās skaitļošanas modeļu saskaņošana vienkārši mēģinās attiecīgi matemātiski atdarināt datus. AI radītajā modelēšanā per se nešķiet veselais saprāts vai citi jūtīgi aspekti.

Turklāt AI izstrādātāji, iespējams, arī neapzinās, kas notiek. Arkāniskā matemātika ML/DL var apgrūtināt tagad slēpto aizspriedumu novēršanu. Jūs pamatoti cerat un gaidāt, ka AI izstrādātāji pārbaudīs potenciāli apraktos aizspriedumus, lai gan tas ir sarežģītāk, nekā varētu šķist. Pastāv liela iespēja, ka pat ar salīdzinoši plašu testēšanu ML/DL modeļu atbilstības modeļos joprojām būs novirzes.

Jūs varētu mazliet izmantot slaveno vai bēdīgi slaveno sakāmvārdu par atkritumu savākšanu. Lieta ir tāda, ka tas vairāk līdzinās aizspriedumiem, kas mānīgi tiek iepludināti, AI iegremdējot aizspriedumus. AI lēmumu pieņemšanas algoritms (ADM) aksiomātiski kļūst piekrauts ar nevienlīdzību.

Nav labi.

Es uzskatu, ka tagad esmu izveidojis pamatu, lai pietiekami apspriestu AI lomu kā līdzekli, lai veicinātu psiholoģisko potēšanu saistībā ar dezinformācijas un dezinformācijas novēršanu.

Iekļūšana cilvēku prātos

Sāksim ar pamatiem vai pamatiem, kas ir dezinformācijas un dezinformācijas pamatā.

Parasti dezinformācija attiecas uz nepatiesu vai maldinošu informāciju.

Dezinformācija ir aptuveni tāda pati, lai gan sastāv no pievienotā elementa nodomu. Mēs parasti uztveram informāciju kā dezinformāciju, ja tā ir informācija paredzēts dezinformēt.

Es varētu jums pateikt, ka pašlaik ir pulksten 10 naktī, kas, pieņemsim, ir nepatiess, jo laiks patiešām ir pusnakts. Ja es jums būtu pateicis pulksten 10 kā nojausmu un nemēģinātu būt maldinošs, mēs parasti teiktu, ka esmu jūs dezinformējis. Es biju nodevis dezinformāciju. Varbūt es biju slinks vai varbūt es patiesi ticēju, ka ir pulksten 10. No otras puses, ja es būtu pieminējis pulksten 10, jo ar nolūku gribēju jūs maldināt, liekot jums domāt, ka pulkstenis ir pulksten 10 un ka es zināju, ka laiks patiesībā ir pusnakts, to varētu uzskatīt par dezinformācijas veidu. .

Viens vērā ņemams informācijas aspekts kopumā ir tas, ka parasti mēs spējam izplatīt informāciju un tādējādi informācija var kļūt zināmā mērā izplatīta. Informācija var plūst kā ūdens plašā nozīmē.

Es jums saku, ka ir pulksten 10 vakarā. Tagad jums ir šī konkrētā informācija. Jūs varat skaļi kliegt blakus cilvēku grupai, ka ir pulksten 10 naktī. Tagad viņiem ir tāda pati informācija. Varbūt daži no šiem cilvēkiem piekļūst mobilajiem tālruņiem un zvana citiem, lai pateiktu, ka ir pulksten 10. Kopumā informāciju var izplatīt vai koplietot, un dažreiz tas tiek darīts tik ātri, bet citos gadījumos tas tiek darīts tik lēni.

Savā ziņā jūs varētu apgalvot, ka informācija var izplatīties.

Ir izdomāts vārds vai terminoloģija, kuru jūs, iespējams, īpaši neesat redzējis vai lietojis un kas palīdz aprakstīt šo parādību, kad informācija kļūst par vīrusu. Šis vārds ir infodēmija. Šis vārds ir gan informācijas, gan epidēmijas sajaukums. Kopumā infodēmija ir saistīta ar apstākļiem, kas saistīti ar dezinformācijas vai dezinformācijas izplatību. Tiek uzskatīts, ka nepatiesa vai maldinoša informācija var izplatīties nevēlamā veidā, līdzīgi kā nevēlama slimības vai slimību izplatīšanās.

Piemērā par pulksten 10 naktī šis šķietamais fakts bija informācija, kas tika izplatīta blakus esošajai cilvēku grupai. Viņi savukārt izplata šo faktu citiem. Ja pulksten 10 bija viltota, tad šis konkrētais dezinformācijas vai dezinformācijas gadījums tika izplatīts daudziem citiem. Viņi var nezināt, ka informācija bija dezinformācija vai, iespējams, dezinformācija.

Es ticu, ka visas šīs definīcijas un pamatprincipi šķiet saprātīgi, un jūs līdz šim esat gatavs.

Lieliski, turpināsim.

Es jūs mazliet slepus ievedu kaut ko tādu, kas ļoti aizrauj un arī satrauc. Būtība ir tāda, ka pastāv pamatotas paralēles starp to, ko slimības izraisa vīrusu, un to, ko izraisa dezinformācija vai dezinformācija.

Ne visi piekrīt šīm apgalvotajām paralēlēm. Tomēr tie ir intriģējoši un ir jāņem vērā.

Ļaujiet man precizēt.

Redziet, mēs varam mēģināt izmantot ērto analoģiju, atsaucoties uz cilvēku pārnēsātām slimībām un slimībām, kas izplatās, lai salīdzinātu līdzīgu iespēju ar dezinformācijas un dezinformācijas izplatību. Lai mēģinātu apturēt slimību izplatīšanos, mēs varam censties laikus atklāt un censties ierobežot jaunu slimību avotu, kas norāda uz iespējamo slimības izplatību. Vēl viena pieeja slimības izplatības apkarošanai būtu nodrošināties pret to, lai ar to nesaslimtu, apdomīgi lietojot masku vai aizsarglīdzekļus. Trešā pieeja varētu ietvert vakcināciju, lai mēģinātu veidot imunitāti saistībā ar šo slimību.

Tagad mēs esam sasnieguši pilnu apli, jo tās pašas pieejas slimību pārvarēšanai var tieši pielīdzināt dezinformācijas un dezinformācijas risināšanai. Es iepriekš minēju, ka tiek veikti līdzīgi centieni izmantot mākslīgo intelektu, lai mēģinātu tikt galā ar dezinformāciju un dezinformāciju, jo īpaši (kā minēts iepriekš):

  • Apstāties pie Get-Go: AI var izmantot, lai atklātu un mēģinātu izņemt dezinformāciju un dezinformāciju, pirms tā tiek atklāta
  • Filtrs pirms apskates: AI var izmantot, lai filtrētu dezinformāciju un dezinformāciju, lai jums nebūtu jāuztraucas par to
  • Sagatavojiet jūs imunitātei: AI var izmantot, lai stiprinātu jūsu gatavību un spēju cīnīties ar dezinformāciju un dezinformāciju (nedaudz formāli zināma kā sava veida psiholoģiska potēšana).
  • cits

Trešais aspekts šeit būs visinteresantākais.

Lūk, darījums.

Mēs zinām, ka slimības parasti skar cilvēka ķermenis. Pēc analoģijas ar to, kā notiek dezinformācija un dezinformācija, mēs varētu likt domāt, ka neķītra informācija nonāk vietnē cilvēka prāts. Jā, iespējams, jūs varat saskarties ar dezinformāciju vai dezinformāciju, kas ieplūst jūsu prātā. Dezinformācija vai dezinformācija, iespējams, sabojā vai saindē jūsu domāšanas veidu.

Cilvēka ķermeni var vakcinēt, lai mēģinātu sagatavoties saskarei ar slimībām. Rodas liels jautājums par to, vai mēs varam darīt to pašu cilvēka prātam. Vai ir iespējams mēģināt potēt prātu, lai tad, kad jums ienāk dezinformācija vai dezinformācija, jūs esat tam gatavs un esat attiecīgi potēts?

Studiju joma, kas pazīstama kā psiholoģiskā inokulācija uzskata, ka prātu patiešām var potēt tādā nozīmē, ka tas ir gatavs rīkoties ar dezinformāciju vai dezinformāciju.

Apsveriet šo aprakstu nesenā pētījuma pētījumā par psiholoģisko potēšanu un to, kas dažkārt tiek apzīmēts kā darīšana iepriekšēja gulēšana:

  • "Dezinformācijas atmaskošana ir arī problemātiska, jo dezinformācijas labošana ne vienmēr pilnībā iznīcina tās ietekmi, parādība, kas pazīstama kā nepārtrauktas ietekmes efekts. Attiecīgi, atšķirībā no atmaskošanas, iepriekšēja atmaskošana ir ieguvusi ievērojamu nozīmi kā līdzeklis, lai profilaktiski veidotu noturību pret paredzamo dezinformācijas pakļaušanu. Šīs pieejas pamatā parasti ir inokulācijas teorija. Inokulācijas teorija seko medicīniskās imunizācijas analoģijai un apgalvo, ka ir iespējams veidot psiholoģisku pretestību pret nevēlamiem pārliecināšanas mēģinājumiem, līdzīgi kā medicīniskās inokulācijas veido fizioloģisko rezistenci pret patogēniem.Zinātne Avansa, 24. gada 2022. augusts, “Psiholoģiskā inokulācija uzlabo noturību pret dezinformāciju sociālajos medijos”, līdzautori Džons Rūzenbēks, Sanders van der Lindens, Beta Goldberga, Stīvs Rathje un Stefans Levandovskis).

Atgriežoties pie mana piemēra par pulksten 10 naktī, pieņemsim, ka es jums iepriekš esmu teicis, ka dažreiz pieprasītais laiks nav īstais laiks. Turpmāk jums ir pieejams potēšanas veids, lai būtu piesardzīgs pret pieprasītajiem laikiem. Šī potēšana ir sagatavojusi jūs saskarsmei ar apgalvotajiem laikiem, kas ir dezinformācija vai dezinformācija.

Ja es būtu jūs brīdinājis pirms vairākiem gadiem, ka norādītie laiki nav faktiskie laiki, pastāv iespēja, ka jūs, iespējams, neiedomāsieties par šo seno brīdinājumu. Tādējādi agrākā inokulācija ir (teiksim) nolietojusies. Mana potēšana jums, iespējams, būs jāpastiprina.

Pastāv arī iespēja, ka potēšana nebija pietiekami specifiska, lai jūs to varētu izmantot, kad tas ir nepieciešams. Ja es pirms gadiem būtu jūs brīdinājis par pieprasītajiem laikiem un faktiskajiem laikiem, tas varētu būt pārāk plašs. Potēšana var nedarboties konkrētajā gadījumā, ja jums tiek ziņots par pulksten 10. Tādā ziņā, iespējams, manai potei vajadzēja būt piesardzīgai, ja tiek izmantots norādītais pulkstenis pulksten 10. Protams, inokulācijas slimību gadījumā ir zināmā mērā vienādas, dažkārt tās ir ļoti specifiskas zināmām slimībām, bet citos gadījumos tās ir plašs spektrs.

Bieži citētais pētījums, ko 1961. gadā veica Viljama Makgaira no Kolumbijas universitātes par psiholoģisko inokulāciju, parasti tiek uzskatīts par klasisku šajā studiju jomā. Jūs varētu interesēt šie galvenie punkti, ko viņš tajā laikā minēja:

  • "Šāda vispārēja imunizācija varētu rasties no viena no diviem mehānismiem. Iepriekšēja ekspozīcija var šokēt cilvēku, apzinoties, ka “patiesības”, ko viņš vienmēr ir pieņēmis, patiešām ir neaizsargātas, tādējādi mudinot viņu veidot savas pārliecības aizstāvību, kā rezultātā viņš ir izturīgāks pret spēcīgajiem pretargumentiem, kad tie nāk. Alternatīvi, atspēkojumi, kas saistīti ar iepriekšēju atklāšanu, var likt visiem vēlāk iesniegtajiem pretargumentiem pret pārliecību šķist mazāk iespaidīgi” (William McGaire, “Resistance to Persuasion Conferred by Active and Passive Prior Refutation Of The Same And Alternative Counterarguments”, Journal of Abnormal and Sociālā psiholoģija, 1961).

Vai šī potēšanas un imunizācijas analoģija jums šķiet noderīgs un piemērots salīdzinājums ar dezinformācijas un dezinformācijas jomu?

Daži to dara, daži ne.

Šīs diskusijas nolūkos, lūdzu, pieņemiet, ka pieņēmums ir saprātīgs un piemērots.

Kā mums mēģināt potēt vai imunizēt cilvēku prātus?

Mēs varētu likt cilvēkiem lasīt grāmatas, kas varētu apgaismot viņu prātus. Mēs varētu viņiem pastāstīt par to vai likt viņiem skatīties videoklipus vai klausīties audio kasetes. utt.

Un mēs varētu izmantot AI, lai darītu to pašu.

AI sistēma var tikt izstrādāta kā jūsu inokulators. Ikreiz, kad sākat izmantot internetu, piemēram, skatāties internetā, uz AI balstīta lietotne var sagatavot jūs tiešsaistes ceļojumam. AI var sniegt jums niecīgu dezinformācijas daudzumu, kas tiek apzīmēts kā tāds, ļaujot jums saprast, ka jūs redzēsit kaut ko apzināti nepatiesu.

Saskaroties ar šo mākslīgā intelekta dezinformāciju, jūsu prāts tagad kļūst gatavs tikt galā ar dezinformāciju vai dezinformāciju, ar kuru jūs varētu saskarties savvaļā internetā. Jūsu prāts ir sagatavots. Voila, jūs redzat emuāru internetā, kurā tiek piedāvāts apgalvots fakts, ka citplanētiešu radības no Marsa jau atrodas šeit uz zemes un slēpjas redzamā vietā, taču jūsu prāts viegli noraida šo šķietamo dezinformāciju vai dezinformāciju iepriekšējas inokulācijas dēļ (labi, tad atkal, varbūt tas ir patiess, un viņi patiešām ir šeit!).

Jebkurā gadījumā es ceru, ka jūs tagad varat saprast, kā mākslīgais intelekts var palīdzēt inokulēt vai imunizēt cilvēkus pret dezinformāciju vai dezinformāciju.

Tiek izstrādātas dažādas AI lietotnes, kas darbosies kā dezinformācijas vai dezinformācijas inokulatori. AI var mēģināt nodrošināt plašu inokulāciju un nodrošināt vispārēju imunizācijas līdzību. AI varētu izstrādāt arī konkrētākiem inokulācijas veidiem. Turklāt AI var darboties personalizēti, kas ir pielāgoti jūsu īpašajām vajadzībām vai interesēm. Advanced AI šajā vietā arī mēģinās noteikt jūsu tolerances līmeni, garīgās absorbcijas līmeni, aiztures spēju un citus faktorus, it kā veidojot un prezentējot tā sauktos imunizācijas šāvienus.

Šķiet diezgan parocīgs.

AI kā bīstamo prāta spēļu spēlētājs

Šādā veidā izmantotais AI no pirmā acu uzmetiena šķitīs diezgan ērts (hei, es to minēju tikai pirms sekundes).

Ir virkne iespējamo negatīvo aspektu un problēmu, kas ir satraucošas un, iespējams, biedējošas.

Savās slejās es bieži runāju par mākslīgā intelekta divējāda lietojuma iespējām, piemēram, sk saite šeit. AI var būt būtisks cilvēces ieguldījums. Diemžēl mākslīgais intelekts ir arī apgrūtināts ar daudzām briesmām un neveiksmīgām nepilnībām.

Attiecībā uz AI kā ieaudzinātāju, apsveriet šīs ar AI ētiku saistītās demonstratīvās problēmas:

  • Cilvēku izraisītas nevēlamas reakcijas
  • Cilvēku nereaģējošas reakcijas
  • AI kļūdaina mērķauditorijas atlase
  • AI nepietiekama mērķauditorijas atlase
  • AI kiberpārkāpums
  • cits

Mēs īsi izpētīsim šīs bažas.

Cilvēku nevēlamās reakcijas

Pieņemsim, ka cilvēkam, kurš saņem šāda veida uz mākslīgo intelektu balstītu inokulāciju, ir nevēlama reakcija vai tas rada nelabvēlīgu ietekmi.

Persona var nepareizi interpretēt imunizāciju un pēkšņi kļūt neuztveroša pret jebkādu saņemto informāciju. Viņi bloķē visu informāciju. AI kaut kādā veidā ir pamudinājusi viņus izmest bērnu ar vannas ūdeni (vecs teiciens, iespējams, ir vērts doties pensijā). Tā vietā, lai tikai mēģinātu tikt galā ar dezinformāciju un dezinformāciju, persona ir reaģējusi, nolemjot, ka visa informācija vienmēr ir nepatiesa.

Es nedomāju, ka mēs vēlamies, lai cilvēki iet pāri bortam.

Ir daudz nevēlamu reakciju, ko AI var veicināt. Daļēji tas ir saistīts ar to, kā mākslīgais intelekts mēģināja veikt potēšanu, taču mums arī daļa no problēmas ir jānoliek pie tā cilvēka kājām, kurš saņēma potēšanu. Viņi, iespējams, reaģēja savvaļā vai dīvainā veidā, ko citi, kas saņēma tādu pašu AI inokulāciju, to nedarīja.

Atkal, jūs varat salīdzināt to ar slimību potēšanas analoģiju.

Īsāk sakot, būs svarīgi, lai šādi AI centieni tiktu veikti atbildīgā veidā, cenšoties samazināt nelabvēlīgo ietekmi. Jābūt arī AI papildu aspektam, lai mēģinātu noskaidrot, vai ir notikusi nevēlama reakcija. Ja tiek atklāta blakusparādība, mākslīgais intelekts ir jāizstrādā, lai mēģinātu palīdzēt personai tās negatīvajā reakcijā un mēģinātu pārvarēt vai atvieglot reakciju.

Cilvēku nereaģējošas reakcijas

Vēl viena iespēja ir tāda, ka inokulācija, kas barota ar mākslīgo intelektu, neietekmē saņēmēju.

Persona saņem uz AI balstītu potēšanu, kas saistīta ar dezinformāciju vai dezinformāciju. Lai gan lielākā daļa cilvēku to “saņem” un imunizējas, noteikti būs cilvēki, kas vispār nereaģēs. Viņi neko nemācās no potēšanas. Viņi nereaģē uz AI mēģinājumu imunizēt viņus pret visu vai noteiktu veidu dezinformāciju vai dezinformāciju.

Tas atkal ir salīdzināms ar slimību potēšanu.

AI būtu jāizstrādā, lai cīnītos ar šādu apstākli.

AI nepareiza mērķauditorijas atlase

Iedomājieties, ka mākslīgais intelekts cer imunizēt cilvēkus par konkrētu tēmu, ko mēs teiksim par tēmu X, taču izrādās, ka tā vietā tiek apskatīta tēma Y. AI kļūdās.

Tā ir divējāda problēma. Pirmkārt, tēma X nav aplūkota kā AI inokulatora paredzamais un cerētais mērķis. Otrkārt, tiek apskatīta tēma Y, taču mēs, iespējams, nevēlējāmies, lai cilvēki tiktu vakcinēti par šo tēmu.

Ups.

Jautājumu ir daudz. Vai to varēja novērst? Ja tā notiek, vai varam atsaukt Y imunizācijas tēmu? Vai mēs varam censties aptvert X inokulācijas tēmu, vai arī cilvēks būs mazāk uzņēmīgs vai neuzņēmīgs, jo sākotnēji mākslīgais intelekts ir kļūdījies?

Rodas daudzas problemātiskas bažas.

AI nepietiekama mērķauditorijas atlase

AI nodrošina potēšanu par tēmu Z. Šķiet, ka cilvēkiem, kas saņem potēšanu, ir minimāla vai gandrīz nenozīmīga reakcija. Inokulācija bija nepietiekama, lai nostiprinātos.

Jums varētu rasties kārdinājums ātri apgalvot, ka tas ir viegli atrisināms. Viss, kas jums jādara, ir atkārtot inokulāciju. Varbūt jā varbūt nē.

AI inokulācijai var būt tik ierobežota vērtība, ka neatkarīgi no tā, vai cilvēki to ir piedzīvojuši simts reizes, rezultāts joprojām ir nenozīmīgs. Jums var būt nepieciešams pastiprināt inokulāciju, nevis vienkārši to atkārtot.

Tikmēr iedomājieties, ka tiek mēģināts pastiprināt AI baroto inokulāciju, taču tas ir pārspīlēti. Pastiprinātā versija izraisa hiperreakcijas. Ak, mēs esam kļuvuši no slikta uz sliktāku.

AI kiberpārkāpums

Iedomājieties, ka mākslīgais intelekts tiek plaši izmantots, lai palīdzētu cilvēkiem tikt potētiem no dezinformācijas un dezinformācijas.

Cilvēki pārņem vispārēju paļaušanos. Viņi zina un sagaida, ka mākslīgais intelekts viņiem iesniegs fragmentus, kas atvērs viņu acis uz tā dēvēto dezinformāciju un dezinformāciju.

Šķiet, ka viss ir labi un labi.

Ļaundarītājs kaut kādā veidā spēj veikt AI kiberpārkāpumu. Viņi slepeni iespiež AI kādu vēlamo dezinformāciju, par kuru viņi vēlas, lai cilvēki domātu, ka tā nav dezinformācija. AI ir sakārtots tā, lai faktiskā dezinformācija šķiet patiesa informācija. Tāpat patiesā informācija tiek likta parādīties kā dezinformācija.

Cilvēki ir pilnībā snūkeri. Viņus dezinformē AI. Turklāt, tā kā viņi bija kļuvuši atkarīgi no mākslīgā intelekta un paļāvās, ka mākslīgais intelekts rīkojas pareizi, viņi pieķeras šim bojātajam AI. Bez vilcināšanās.

Ņemot vērā to, cik viegli var izplatīties dezinformācija, ļaundaris varētu priecāties par to, ka šāda veida mākslīgā intelekta esamība ir viņu vienkāršākais un ātrākais veids, kā likt saviem mānīgajiem meliem izplatīties visā pasaulē. Ironiski, protams, izmantojot AI inokulatoru, lai būtībā izplatītu slimību.

Secinājumi

Vai mums vajadzētu AI spēlēt prāta spēles ar mums?

Vai AI dezinformācijas un dezinformācijas potēšanai varētu būt draudīgs Trojas zirgs?

Jūs varat pamatoti uztraukties par šādu murgu.

Citi smej par šādu iespēju. Cilvēki ir pietiekami gudri, lai zinātu, kad AI mēģina viņus apmānīt. Uz tāda dribla cilvēki neiekritīs. Tikai idioti varētu sevi maldināt ar šādu AI. Tās ir parastās replikas un pretargumenti.

Nevēloties šķist, ka apbrīnoju cilvēkus un cilvēka dabu, es tikai ierosinu, ka ir pietiekami daudz norādes, ka cilvēki varētu piekrist AI, kas viņus maldina.

Ir vēl lielāka problēma, kas, iespējams, skar visu šo.

Kas veido AI un kā AI algoritmiski izlemj, kas tiek uzskatīts par dezinformāciju un dezinformāciju?

Šodien pasaulē kopumā notiek vesela apšaude par to, kas ir tieši dezinformācija un dezinformācija. Daži apgalvo, ka fakti ir fakti, tāpēc nekad nevar rasties neskaidrības par to, kas ir pareiza un nepareiza informācija. Lai gan dažreiz velns slēpjas detaļās, tas ir pilnīgi skaidrs.

Pagaidām pēdējā piezīme. Ābrahams Linkolns ir teicis: "Jūs varat apmānīt visus cilvēkus kādu laiku un dažus cilvēkus visu laiku, bet jūs nevarat visu laiku apmānīt visus cilvēkus."

Vai mākslīgais intelekts, ko izmanto, lai palīdzētu cilvēcei inficēt dezinformāciju un dezinformāciju, būs būtisks instruments, lai nodrošinātu, ka visus cilvēkus nevar visu laiku apmānīt? Vai arī to var izmantot, lai vairāk laika apmānītu cilvēkus?

Laiks rādīs.

Un tā noteikti nav dezinformācija vai dezinformācija.

Avots: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/