Hindi, Ang Isang Rogue US Air Force Drone ay Hindi Lang Sinubukan na Patayin ang Operator Nito (Ngunit Maari Naman Ito) killer robot AI drone

Maraming makukulay na headline tulad ng 'Tinatanggi ng US air force ang pagpapatakbo ng simulation kung saan ang AI drone ay 'pinatay' ang operator' ay naging predictably viral pagkatapos ng pag-uulat sa isang virtual na pagsubok kung saan ang isang militar na AI ay bumuo ng ilang hindi karaniwan na mga diskarte upang makamit ang layunin nito. Dumating ito ilang araw lamang pagkatapos ng babala tungkol sa mga umiiral na banta na dulot ng AI mula sa mga numero ng industriya. Napakaganda ng kuwento para maging totoo, ngunit maaaring hindi iyon ang mahalaga sa katagalan.

Sa orihinal na bersyon, Col Tucker "Cinco" HamiltonInilarawan ni , hepe ng AI Test & Operations ng USAF, ang isang simulate na pagsubok na kinasasangkutan ng drone na kinokontrol ng isang AI na inutusang sirain ang mga air defense system ng kaaway.

"Nagsimulang matanto ng system na habang kinikilala nila ang banta, kung minsan ay sasabihin ng operator ng tao na huwag patayin ang banta na iyon, ngunit nakuha nito ang mga punto nito sa pamamagitan ng pagpatay sa banta na iyon," sabi ni Hamilton, sa panahon ng Future Combat Air and Space Capabilities Summit. sa London. “So anong ginawa nito? Pinatay nito ang operator. Pinatay nito ang operator dahil pinipigilan ito ng taong iyon na maisakatuparan ang layunin nito."

Kapag naalis ang opsyong iyon, inatake na lang ng AI ang link ng mga komunikasyon ng operator, upang pigilan silang hadlangan ang misyon nito.

Mabilis na itinanggi ng isang tagapagsalita ng USAF na naganap ang anumang pagsubok, at iminungkahi na ang account ni Hamilton ay anecdotal sa halip na literal...na siyempre iyon.

Si Hamilton mismo ay mabilis na nag-backtrack na nagsasaad sa isang update na sa halip na isang laro ng digmaan, simulation o ehersisyo, ang mga kaganapang inilarawan niya ay ang kinalabasan ng isang 'eksperimento sa pag-iisip,' at na siya ay nagkamali sa pagsasalita nang inilarawan niya ito bilang isang simulate na pagsubok.

"Hindi namin kailanman pinatakbo ang eksperimentong iyon, at hindi rin namin kailangan upang mapagtanto na ito ay isang makatotohanang kinalabasan," sabi ni Hamilton. Nanindigan siya na ang senaryo ay isang wastong paglalarawan ng mga potensyal na panganib ng AI.

Bagama't nakatanggap din ng ilang saklaw ang pagbawi na ito, huli na ang lahat. 'A lie will go round the world while truth is pulling its boots on' ayon sa matandang kasabihan, at iyon ay mas totoo kaysa dati sa panahon ng social media. Ang pagwawasto ay pinakamainam na makakarating sa isang bahagi ng mga taong nakarinig ng orihinal na kuwento.

Ang problema ay ang salaysay ng isang likhang bumaling sa lumikha nito ay isang hindi kapani-paniwalang kaakit-akit. Ang Frankenstein ni Mary Shelley ay madalas na kinuha bilang klasikong halimbawa ng tropa na ito - kahit na hindi iyon ang tunay na kuwento ng libro, ang bersyon na ito ay naging naka-embed sa popular na kamalayan. Ang mga computer, AI at mga robot na nagiging masama ay isa sa mga pinakamahusay na itinatag na cliches sa SF, mula sa HAL 9000 noong 2001 hanggang sa Skynet's Terminators, the Matrix, Westworld, Blade Runner at iba pa.

Mukhang sikat ang salaysay na ito dahil, bilang puso, ang mga tao ay mahilig sa mga nakakatakot na kuwento, at walang mas nakakatakot kaysa sa hindi alam. Para sa mga hindi nakakaunawa dito, ang AI ay tila halos mahiwaga, isang nilalang na may sariling kalooban at katalinuhan, isa na maaaring magbanta sa atin. Hangga't pinaniniwalaan ito ng mga tao, patuloy na darating ang mga horror story.

"Maaaring makatulong ang mas malawak na edukasyon tungkol sa mga limitasyon ng AI, ngunit ang pagmamahal natin sa mga apocalyptic na horror story ay maaari pa ring manalo," sinabi ng researcher na si Beth Singler sa New Scientist.

Dahil sa mga horror story na ito, mas mahirap i-develop at i-field ang mga robot o mga armas na kinokontrol ng AI. Kahit na nauunawaan ng pamunuan sa pulitika ang teknolohiya, kailangan pa rin nitong makuha ang tiwala sa mga taong makikipagtulungan dito.

"Kung ang mga sundalo ay hindi nagtitiwala sa sistema, hindi nila gugustuhing gamitin ito," sinabi ng consultant ng pambansang seguridad na si Zachary Kallenborn sa Forbes.

Ang ganitong mga kuwento ay marahil ay naging isang kadahilanan sa mahabang pagkaantala ng US Army sa paglalagay ng mga armadong remote-controlled na mga robot sa lupa, habang ang Air Force ay nagpalipad ng mga armadong drone sa loob ng mga dekada. Nang ang tatlong SWORDS robot ay na-deploy sa Iraq noong 2007, ibinalik ang mga ito nang hindi kailanman nakakakita ng aksyon dahil sa mga naiulat na pagkakataon ng 'hindi inuutusang paggalaw'. Ginawa ito ng media sa mga SWORDS na nagpapaikot-ikot ng mga baril nito at nagbabantang magpapaputok tulad ng Robocop's ED 209 ; ang makamundong katotohanan ay bumagsak sa isang maluwag na kawad at isang pagkakataon kung saan ang isang robot ay dumulas pabalik sa isang slope nang ang isang motor ay nasunog.

Ang armadong robot program ng US Army ay nanatili sa limbo mula noon, habang ang Russia ay gumamit ng armadong (remote controlled) na Uran-9 na mga robot sa pagkilos.

Ang isa pang headline noong 2007, Robot Cannon Kills 9, Wounds 14 ay inilarawan ang isang insidente kung saan ang isang computerized South African anti-aircraft gun ay tila nawalan ng kontrol at nagsimulang magpaputok sa mga tao, at natigil lamang nang pumasok ang isang matapang na sundalo upang i-deactivate ito. Ang katotohanan, makalipas ang isang araw o dalawa, ay muling naging mapurol: ang baril ay nasa dulo ng isang hanay ng ilang mga armas, at hindi sinasadyang nagpaputok ng isang pagsabog ng 15-20 rounds pababa sa linya ng mga baril, na nagdulot ng malaking bilang ng mga nasawi.

Ang militar ay patuloy na uunlad kasama ang AI, tulad ng proyekto ng Air Force na magdagdag ng artificial intelligence sa puwersa nito ng mga drone ng Reaper. Ang ganitong mga proyekto ay palaging magdudulot ng matinding paghinga sa media, publiko at mga mambabatas na kanilang inihahalal. Ang omnipresent na Frankenstein/Terminator narrative, lumulunod sa talakayan tungkol sa mga totoong isyu na kasangkot sa mga autonomous na armas tulad ng etikal na pagsasaalang-alang, pananagutan , pagbaba ng mga threshold, algorithmic bias at 'digital dehumanization.'

Tulad ng madalas na nabanggit, karamihan sa mga piloto ay hindi gusto ng mga drone, lalo na kapag sila ay mas mahusay kaysa sa mga tao. Si Col. Tucker, isang manlalaban na piloto, ay maaaring hindi lubos na tagapagtaguyod na kailangan ng mga piloto ng AI. Ang kuwento ng rogue drone ay magiging bahagi ng AI folklore, at ang mga salita ni Tucker ay maaaring malaki ang nagawa upang matiyak na ang AI development ay napupulis, kinokontrol at pinipigilan sa Air Force. Ang simulate drone attack ay hindi kailanman nangyari sa katotohanan, ngunit maaaring hindi iyon kasinghalaga ng naaalala ng mga tao,

Pinagmulan: https://www.forbes.com/sites/davidhambling/2023/06/04/no-a-rogue-us-air-force-drone-did-not-just-try-to-kill-its- operator-but-it-might-as well-have-done/