Kāda ir Pentagona atjauninātā politika par killer robotiem?

Pentagons ir izdevis anu tās Direktīvas 3000.09 atjauninājums, kas aptver to terminu Autonomija ieroču sistēmās un citi zvanaslepkavas roboti.' Pašreizējie droni, piemēram, Gaisa spēki un CIP Pļaujmašīnas MQ-9 tiek vadītas ar tālvadības pulti: cilvēks sēžot video ekrāna priekšā identificē mērķus uz zemes tūkstošiem jūdžu attālumā, novieto tos krustpunktā un atbrīvo Hellfire raķete vai citu ieroci. Autonomie ieroči ir atšķirīgi: tie izvēlas savus mērķus bez cilvēka iejaukšanās. Ir vajadzīgi skaidri noteikumi par to, kad un kā tos var izmantot, un jaunā direktīva tos soli pietuvina.

Pirms desmit gadiem, kad tika izlaista pirmā 3000.09 versija, autonomie ieroči izskatījās pēc zinātniskās fantastikas. Tagad tie ir ļoti reāli. To apgalvoja ANO Turcijas piegādātie droni uzbruka mērķiem autonomi Lībijā 2020. gadā, un Krievija tagad Ukrainā izvieto klīstošu munīciju ar autonoma spēja.

Daudzi aktīvisti, piemēram, Kampaņa, lai apturētu slepkavas robotusvēlas tiešu autonomo ieroču aizliegumu, uzstājot, ka jebkurš attālais ierocis paliek spēkā jēgpilna cilvēka kontrole visu laiku. ANO ir apspriedusi, kā to izdarīt kontrolēt šādas rokas daudzus gadus.

Tomēr, kā skaidri norādīts jaunajā direktīvā, Pentagons pieturas pie citas līnijas.

"DoD ir konsekventi iebildusi pret" jēgpilnas cilvēka kontroles" politikas standartu, kad runa ir gan par autonomām sistēmām, gan AI sistēmām. Gregorijs Alens, AI pārvaldības projekta direktors Stratēģisko un starptautisko pētījumu centrs, pateica man. “Vēlamais DoD mākslas termins ir “atbilstoši cilvēka sprieduma līmeņi”, kas atspoguļo faktu, ka dažos gadījumos, piemēram, autonomās novērošanas lidmašīnas un dažu veidu autonomie kiberieroči, atbilstošais cilvēka kontroles līmenis var būt mazs vai vispār nebūtisks. ”.

Kādi autonomie ieroči kādos apstākļos būtu atļauti? Allens uzskata, ka direktīvas iepriekšējā versija bija tik neskaidra, ka tā atturēja no jebkādas attīstības šajā jomā.

"Neskaidrības bija tik plaši izplatītas, tostarp dažu DoD augstāko vadītāju vidū, ka amatpersonas atturējās izstrādāt dažas sistēmas, kuras ne tikai atļāva politika, bet arī bija skaidri atbrīvotas no augstākā līmeņa pārskatīšanas prasības," saka Alens.

Desmit gadu laikā kopš tā publicēšanas nav iesniegts neviens ierocis autonomo ieroču pārskatīšanas procesam, kas izklāstīts oriģinālajā dokumentā 3000.09.

Alens rakstīja an eseja par šo CSIS pagājušajā gadā, aprakstot četras jomas, kurās bija jāstrādā – oficiāli definēt autonomas ieroču sistēmas, pateikt, ko politikai nozīmē “AI iespējots”, kā pārskatīšanas procesā tiks apstrādāti mašīnmācīšanās modeļi, un precizēt, kādi ieroču veidi ir nepieciešami iziet cauri grūtajam pārskatīšanas procesam.

"DoD ir ieviesusi tos visus," saka Allens.

Principā tam vajadzētu nodrošināt to, ko DoD apzīmē "stingra un pastāvīga apņemšanās būt pārredzamam globālam līderim, veidojot atbildīgu politiku attiecībā uz autonomu sistēmu izmantošanu militāriem nolūkiem".

Tomēr ir daži papildinājumi, kurus varētu uzskatīt par nepilnībām, piemēram, atbrīvojums no augstākās pārbaudes attiecībā uz autonomiem ieročiem, kas aizsargā dronus, kuri nav vērsti pret cilvēkiem (“pretmateriālie ieroči”) un kurus drīkstētu mērķēt pret raķetēm un citiem bezpilota lidaparātiem. un, iespējams, citas sistēmas.

"Vārds "aizstāvēšana" dara daudz darba," Zaks Kallenborns, man teica Džordža Meisona universitātes Schar Politikas un valdības skolas politikas stipendiāts. "Ja drons darbojas ienaidnieka teritorijā, gandrīz jebkuru ieroci var uzskatīt par platformas "aizstāvēšanu".

Kallenborns arī atzīmē, ka, lai gan efektīvi autonomi ieroči, piemēram, kājnieku mīnas, ir izmantoti vairāk nekā gadsimtu, ainava strauji mainās AI un īpašas mašīnmācīšanās progresa dēļ. Tie ir radījuši sistēmas, kas ir ļoti spējīgas, bet tehniski trausls – kad viņiem neizdodas, viņi piedzīvo iespaidīgas neveiksmes tādos veidos, kā, piemēram, neviens cilvēks sajaucot bruņurupuci ar šauteni.

"Autonomija, izmantojot AI, noteikti ir pelnījusi lielākas bažas, ņemot vērā pašlaik dominējošo pieeju trauslumu un izskaidrojamības trūkumu," saka Kallenborns.

Atjauninājums nav liels. Bet tas parāda Pentagona pastāvīgo apņemšanos izstrādāt efektīvus autonomus ieročus un ticību, ka tie var izpildīt starptautiskās humanitārās tiesības — civiliedzīvotāju nošķiršana no militārpersonām, cenšoties izvairīties no kaitējuma civiliedzīvotājiem un izmantot tikai samērīgu un nepieciešamu spēku.

Kampaņas dalībnieki uzskata, ka mākslīgajam intelektam nebūs vajadzīgās izpratnes, lai pieņemtu morālus spriedumus kara laikā, un tas riskē radīt pasauli, kurā karš ir automatizēts un cilvēki vairs nekontrolē. Citi uzskata, ka ASV armija būs pārspēja pretinieki ar autonomiem ieročiem ja vien mākslīgais intelekts nav iekļauts taktiskā līmenī un ka pārāk liela cilvēku iesaistīšanās palēnina militāro robotu darbību.

Domājams, ka strīds turpināsies pat tad, kad sāks parādīties autonomie ieroči, un rezultāti tiks rūpīgi sekoti. Jebkurā gadījumā šķiet, ka tuvojas slepkavas roboti.

Avots: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/