Ano ang Na-update na Patakaran ng Pentagon Tungkol sa Mga Killer Robot?

Ang Pentagon ay naglabas ng isang update sa Directive 3000.09 nito, na sumasaklaw sa kung ano ang kanilang termino Autonomy sa Sistema ng Armas at ang iba ay tumatawagpamatay na mga robot.' Mga kasalukuyang drone tulad ng Air Force at CIA MQ-9 Reaper ay pinapatakbo ng remote control: isang tao nakaupo sa harap ng screen ng video kinikilala ang mga target sa lupa libu-libong milya ang layo, inilalagay ang mga ito sa mga crosshair at naglalabas ng a Hellfire missile o iba pang sandata. Ang mga autonomous na armas ay iba: pumipili sila ng kanilang sariling mga target nang walang anumang interbensyon ng tao. Ang mga malinaw na panuntunan ay kailangan sa kung kailan at paano sila magagamit, at ang bagong direktiba ay nagdadala sa kanila ng isang hakbang na mas malapit.

Sampung taon na ang nakalilipas nang ang unang bersyon ng 3000.09 ay inilabas, ang mga autonomous na armas ay mukhang science fiction. Ngayon sila ay tunay na totoo. Inangkin iyon ng UN Ang mga drone na ibinigay ng Turkish ay nagsasarili na umatake sa mga target sa Libya noong 2020 at ang Russia ay nagpapakalat na ngayon ng mga loitering munitions sa Ukraine na may autonomous na kakayahan.

Maraming aktibista, tulad ng Kampanya upang Itigil ang Killer Robots, gusto ng tahasang pagbabawal sa mga autonomous na armas, na iginigiit na ang anumang malayong armas ay nananatili sa ilalim makabuluhang kontrol ng tao sa lahat ng oras. Ang UN ay pinagtatalunan kung paano kontrolin ang gayong mga armas sa loob ng maraming taon.

Gayunpaman, habang nililinaw ng bagong direktiba, ang Pentagon ay nananatili sa ibang linya.

"Patuloy na tinututulan ng DoD ang isang pamantayan ng patakaran ng 'makabuluhang kontrol ng tao' pagdating sa parehong mga autonomous system at AI system," Gregory Allen, direktor ng Project on AI Governance sa Center para sa Strategic at International Studies, sinabi sa akin. "Ang ginustong termino ng sining ng DoD ay 'naaangkop na mga antas ng paghatol ng tao,' na sumasalamin sa katotohanan na sa ilang mga kaso - autonomous surveillance aircraft at ilang mga uri ng autonomous cyber weapons, halimbawa - ang naaangkop na antas ng kontrol ng tao ay maaaring maliit sa wala. .”

Anong mga autonomous na armas ang pinahihintulutan sa ilalim ng anong mga pangyayari? Naniniwala si Allen na ang naunang bersyon ng direktiba ay hindi malinaw na hindi nito hinihikayat ang anumang pag-unlad sa lugar na ito.

"Napakalat ang pagkalito - kabilang ang ilang nakatataas na pinuno ng DoD - na ang mga opisyal ay umiiwas sa pagbuo ng ilang sistema na hindi lamang pinapayagan ng patakaran, ngunit hayagang exempted din mula sa kinakailangan sa senior review," sabi ni Allen.

Walang kahit isang armas ang naisumite sa proseso ng pagsusuri para sa mga autonomous na armas na inilatag sa orihinal na 3000.09 sa loob ng sampung taon mula noong ito ay nai-publish.

Sumulat si Allen ng isang sanaysay tungkol dito para sa CSIS noong nakaraang taon, na naglalarawan sa apat na lugar na nangangailangan ng trabaho – pormal na tumutukoy sa mga autonomous na sistema ng armas, sinasabi kung ano ang ibig sabihin ng "AI-enabled" para sa patakaran, kung paano haharapin ng proseso ng pagsusuri ang mga modelo ng pag-aaral ng machine learning, at paglilinaw kung anong mga uri ng armas ang kailangan dumaan sa mahirap na proseso ng pagsusuri.

"Ang DoD ay nagpatupad ng lahat ng mga ito," sabi ni Allen.

Sa prinsipyo, dapat nitong tiyakin kung ano ang termino ng DoD na "malakas at patuloy na pangako sa pagiging isang transparent na pandaigdigang pinuno sa pagtatatag ng mga responsableng patakaran hinggil sa paggamit ng militar ng mga autonomous na sistema."

Gayunpaman, may ilang mga karagdagan na maaaring makita bilang mga butas, tulad ng isang exemption mula sa senior review para sa mga autonomous na armas na nagtatanggol sa mga drone na hindi nagta-target ng mga tao ('anti-material weapons') at ngunit papayagang mag-target ng mga missile, iba pang drone at posibleng iba pang mga sistema.

"Ang salitang 'pagtatanggol' ay gumagawa ng isang toneladang trabaho," Zak Kallenborn, isang policy fellow sa Schar School of Policy and Government sa George Mason University ang nagsabi sa akin. "Kung ang isang drone ay tumatakbo sa teritoryo ng kaaway, halos anumang armas ay maaaring ipakahulugan bilang 'pagtatanggol' sa platform."

Binanggit din ni Kallenborn na habang ginagamit ang mga epektibong autonomous na armas tulad ng mga landmine sa loob ng mahigit isang siglo, mabilis na nagbabago ang tanawin dahil sa mga pagsulong sa AI at partikular na machine learning. Ang mga ito ay nagbunga ng mga sistema na napakahusay, ngunit teknikal na malutong – kapag sila ay nabigo, sila ay nabigo sa mga paraan na walang tao, halimbawa napagkakamalang riple ang pagong.

"Ang awtonomiya sa pamamagitan ng AI ay tiyak na karapat-dapat ng higit na pag-aalala, dahil sa kalupitan at kawalan ng kakayahang maipaliwanag ng kasalukuyang nangingibabaw na mga diskarte," sabi ni Kallenborn.

Ang update ay hindi malaki. Ngunit ipinapakita nito ang patuloy na pangako ng Pentagon sa pagbuo ng mga epektibong autonomous na armas at isang paniniwalang maaari nilang sundin internasyunal na makataong batas — pagkilala sa mga sibilyan mula sa mga tauhan ng militar, na naglalayong iwasang makapinsala sa mga sibilyan, at gumamit lamang ng proporsyonal at kinakailangang puwersa.

Naniniwala ang mga campaigner na ang AI ay hindi magkakaroon ng kinakailangang pang-unawa upang gumawa ng moral na paghuhusga sa panahon ng digmaan at mga panganib na lumikha ng isang mundo kung saan ang digmaan ay awtomatiko at ang mga tao ay wala nang kontrol. Ang iba ay naniniwala na ang militar ng US ay magiging outmatched sa pamamagitan ng mga kalaban na may mga autonomous na armas maliban kung ang AI ay isinama sa isang taktikal na antas, at ang labis na paglahok ng tao nagpapabagal sa mga robot ng militar.

Ang argumento ay malamang na magpatuloy kahit na ang mga autonomous na armas ay nagsimulang lumitaw, at ang mga resulta ay susundan nang malapit. Alinmang paraan, tila ang mga killer robot ay darating.

Pinagmulan: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/