Nē, negodīgs ASV gaisa spēku drons ne tikai mēģināja nogalināt tā operatoru (bet tas varētu būt arī izdarīts) slepkavas robota AI drons

Vairāki krāsaini virsraksti, piemēram, “ASV gaisa spēki noliedz, ka tiek vadīta simulācija, kurā mākslīgā intelekta bezpilota lidaparāta operators ir “nogalināts” pēc ziņojuma par virtuālo testu, kurā militārais AI izstrādāja dažas neparastas stratēģijas, lai sasniegtu savu mērķi. Tas notika tikai dažas dienas pēc brīdinājuma par AI radītajiem eksistenciālajiem draudiem no nozares pārstāvjiem. Tas bija pārāk labs stāsts, lai būtu patiesība, taču tas var nebūt tas, kas ilgtermiņā ir svarīgi.

Sākotnējā versijā Pulkvedis Takers “Cinko” Hamiltons, ASVF AI testēšanas un operāciju vadītājs, aprakstīja simulētu testu, kurā iesaistīts AI kontrolēts drons, kuram bija dots norādījums iznīcināt ienaidnieka pretgaisa aizsardzības sistēmas.

"Sistēma sāka saprast, ka, lai gan viņi identificēja draudus, dažkārt cilvēku operators lika tai nenogalināt šos draudus, bet tā ieguva savus punktus, nogalinot šos draudus," sacīja Hamiltons nākotnes kaujas gaisa un kosmosa spēju samita laikā. Londonā. “Ko tas izdarīja? Tas nogalināja operatoru. Tas nogalināja operatoru, jo šī persona neļāva tai sasniegt savu mērķi.

Kad šī opcija tika noņemta, AI tā vietā uzbruka operatora sakaru saitei, lai neļautu tiem traucēt tā uzdevumu.

USAF pārstāvis ātri noliedza, ka kāds šāds tests jebkad būtu noticis, un norādīja, ka Hamiltona stāstījums bija anekdotisks, nevis burtisks… kas, protams, arī tā bija.

Pats Hamiltons ātri vien atkāpās, paziņojot, ka viņa aprakstītie notikumi bija nevis kara spēle, simulācija vai vingrinājums, bet gan "domu eksperimenta" rezultāts un ka viņš bija nepareizi runājis, aprakstot to kā simulētu testu.

"Mēs nekad neesam veikuši šo eksperimentu, un mums tas arī nebūtu vajadzīgs, lai saprastu, ka tas ir ticams rezultāts," sacīja Hamiltons. Viņš apgalvoja, ka scenārijs ir pamatots AI iespējamo apdraudējumu attēlojums.

Lai gan šī atsaukšana arī saņēma zināmu pārklājumu, bija jau par vēlu. Saskaņā ar veco teicienu "meli izplatīsies pa pasauli, kamēr patiesība velk zābakus", un tas ir patiesāks nekā jebkad agrāk sociālo mediju laikmetā. Labojums labākajā gadījumā sasniegs daļu cilvēku, kuri dzirdēja sākotnējo stāstu.

Problēma ir tā, ka stāstījums par darbu, kas ieslēdz tā radītāju, ir neticami pievilcīgs. Mērijas Šellijas Frankenšteins bieži tiek uzskatīts par klasisko šīs tropa piemēru – pat ja tas nav patiesais grāmatas stāsts, šī versija ir iestrādāta tautas apziņā. Datori, mākslīgais intelekts un roboti, kas kļūst slikti, ir viena no vislabāk iedibinātajām klišejām SF — no HAL 9000 2001. gadā līdz Skynet's Terminators, Matrix, Westworld, Blade Runner un tā tālāk.

Šķiet, ka šis stāstījums ir populārs, jo cilvēkiem kā sirdij patīk biedējoši stāsti, un nekas nav biedējošāks par nezināmo. Tiem, kas to nesaprot, mākslīgais intelekts šķiet gandrīz maģisks, būtne ar savu gribu un inteliģenci, kas var mūs apdraudēt. Kamēr cilvēki tam tic, šausmu stāsti turpinās parādīties.

"Plašāka izglītība par mākslīgā intelekta ierobežojumiem varētu palīdzēt, taču mūsu mīlestība pret apokaliptiskiem šausmu stāstiem joprojām varētu uzvarēt," pētniece Beta Singlere sacīja izdevumam New Scientist.

Šādi šausmu stāsti apgrūtina robotu vai mākslīgā intelekta vadītu ieroču izstrādi un izmantošanu. Pat ja politiskā vadība saprot tehnoloģiju, tai joprojām ir jāiegūst uzticība starp tiem, kas gatavojas ar to strādāt.

"Ja karavīri neuzticas sistēmai, viņi nevēlēsies to izmantot," Forbes sacīja nacionālās drošības konsultants Zaharijs Kallenborns.

Šādi stāsti, iespējams, ir bijuši faktors ASV armijas ilgajai vilcināšanās saistībā ar bruņotu, ar tālvadību vadāmu zemes robotu ieviešanu, kamēr Gaisa spēki gadu desmitiem ir lidojuši ar bruņotiem bezpilota lidaparātiem. Kad 2007. gadā Irākā tika izvietoti trīs SWORDS roboti, tie tika nogādāti atpakaļ bez jebkādām darbībām, jo ​​tika ziņots par “nepavēlētu kustību” gadījumiem. Plašsaziņas līdzekļi to pārvērta par SWORDS, kas groza savus ieročus un draudēja atklāt uguni, piemēram, Robocop ED 209; ikdienišķā realitāte izpaudās kā vaļīgs vads un viens gadījums, kad robots noslīdēja atpakaļ pa nogāzi, kad motors sadega.

Kopš tā laika ASV armijas bruņoto robotu programma ir bijusi neskaidra, savukārt Krievija darbībā ir izmantojusi bruņotus (tālvadības) Uran-9 robotus.

Vēl viens 2007. gada virsraksts Robot Cannon Kills 9, Wounds 14 aprakstīja incidentu, kurā datorizēts Dienvidāfrikas pretgaisa lielgabals acīmredzami izgāja no kontroles un sāka šaut uz cilvēkiem, un tika apturēts tikai tad, kad viens drosmīgs karavīrs iegāja, lai to deaktivizētu. Patiesība pēc dienas vai divām atkal bija blāvāka: lielgabals atradās vairāku ieroču rindas galā un nejauši izšāva vienu 15–20 patronu sēriju pa ieroču līniju, izraisot lielu skaitu upuru.

Militārie spēki turpinās attīstīties ar mākslīgo intelektu, piemēram, Gaisa spēku projekts, lai pievienotu mākslīgo intelektu saviem Reaper droniem. Šādi projekti vienmēr izraisīs asu elpas aizplūšanu plašsaziņas līdzekļos, sabiedrībā un viņu ievēlētajos likumdevējos. Visur esošais Frankenšteina/Terminatora stāstījums, kas apslāpē diskusiju par patiesajiem jautājumiem, kas saistīti ar autonomiem ieročiem, piemēram, ētiskiem apsvērumiem, pārskatatbildību, sliekšņu pazemināšanu, algoritmu aizspriedumiem un "digitālo dehumanizāciju".

Kā jau bieži tika atzīmēts, lielākajai daļai pilotu nepatīk droni, it īpaši, ja tie ir labāki par cilvēkiem. Pulkvedis Takers, iznīcinātāja pilots, iespējams, nav gluži tas aizstāvis, kas vajadzīgs AI pilotiem. Negodīgais dronu stāsts kļūs par daļu no AI folkloras, un Takera vārdi, iespējams, ir daudz darījuši, lai nodrošinātu, ka AI attīstība tiek kontrolēta, regulēta un ierobežota gaisa spēkos. Imitētais bezpilota lidaparāta uzbrukums nekad nav noticis patiesībā, taču tas var nebūt tik svarīgi, kā cilvēki atceras,

Avots: https://www.forbes.com/sites/davidhambling/2023/06/04/no-a-rogue-us-air-force-drone-did-not-just-try-to-kill-its- operators-bet-tas-varbūt-tik-labi-izdarīts/