AI Ethics na Nakikibaka sa Maapoy na One-Two Punch Ng Parehong AI-Based Autonomous Weapons System At Ang Exploitation Ng AI-Driven Autonomous System na Devilishly Weaponized

Ang mga kamangha-manghang sumasayaw na mga robot na may apat na paa.

Sigurado ako na nakita mo na ang mga viral na video na iyon ng mga robotic system na may apat na paa na sumasayaw at sumasayaw sa tila nakakatuwa at parang aso na minamahal na paraan. Mukhang natutuwa kaming makita ang mga robot na iyon na hinimok ng AI habang umaakyat sila sa mga hadlang at lumilitaw na nakakakuha ng isang maselang foothold kapag nakapatong sa ibabaw ng mga kahon o pagkatapos na mailagay nang walang panganib sa mga lasing na tuktok ng mga cabinet. Paminsan-minsan, susunduin o itutulak ng kanilang mga human handler ang mga nagsasayaw na robot na may apat na paa, na tila hindi patas at madaling makapagpapataas ng iyong galit sa masamang pagtrato ng mga mastermind humanoids na iyon.

Iniisip ko bagaman kung nakita mo na ang hindi-viral na mga video ng isang ganap na naiibang kalibre.

Ihanda ang sarili.

Mayroong malawak na nai-post na mga video na nagpapakita ng parehong uri ng mga robot na may apat na paa na nilagyan ng binibigkas na armas ng isang uri o iba pa.

Halimbawa, ang isang machine gun o katulad na baril ay naka-mount sa ibabaw ng isang pamilyar na sumasayaw-at-prancing na robot. Mayroong electronic linkage sa pagitan ng apat na paa na robot at ang mekanismo ng pagpapaputok ng armas. Ang ngayon ay naka-armas na computer-walking contraption ay ipinapakita na humahakbang patungo sa kung saan inilagay ang isang bullseye target, at ang machine gun ay rat-a-tat na pinaputok nang mabangis sa target. Matapos maipako ang kasunod na bahagyang nawasak na target, ang apat na paa na robot ay sumasayaw at pumapalakpak sa kalapit na mga hadlang at pumila upang ulitin ang parehong aksyon nang paulit-ulit sa iba pang mga bagong target.

Hindi masyadong kung ano ang inaasahan mong makita. Tiyak na inaalis nito ang kagaanan at kagalakan mula sa tapat na panonood sa mga cuddly four-legged robot na ginagawa ang kanilang ginagawa. Maligayang pagdating sa malupit na katotohanan ng tila hindi nakapipinsala mga autonomous na sistema na binago o binago sa pagiging mahigpit na sandata. Sa napakaraming pagsisikap, maaari kang magdamag ng isang itinuturing na "non-weaponized" na autonomous system na na-retrofit upang maglaman ng ganap na armas.

Ito ay halos easy-peasy sa ilang mga pangyayari.

Tatalakayin ko ang mainit na kontrobersyal na paksang ito at tatalakayin ang medyo mabigat na pagkabalisa sa AI Ethics na lumitaw. Maglalakbay tayo sa mga autonomous system, AI, mga autonomous na sasakyan, weaponization, at sari-saring mga nauugnay na Ethical AI combative issues. Para sa aking patuloy at malawak na saklaw ng AI Ethics at Ethical AI, tingnan ang link dito at ang link dito, Lamang upang pangalanan ang ilang.

Magsimula tayo sa ilang mga saligang bato.

Para sa kapakanan ng talakayan, tanggapin na mayroong dalawang pangunahing paraan upang maikategorya ang mga autonomous system na armado ng armas:

1) Autonomous Weapons System (ayon sa disenyo)

2) Autonomous na Sistema na Naka-Weaponized (sa pamamagitan ng after-the-fact)

Mayroong mahalagang pagkakaiba sa pagitan ng dalawang kategorya.

Sa unang pagkakataon, tutukuyin natin ang isang autonomous na sistema ng armas upang maging mula sa get-go isang grounds up computerized na paglikha na sadyang nilayon upang maging isang armas. Nasa isip ng mga developer na gusto nilang gumawa ng armas. Ang kanilang tahasang paghahanap ay upang makabuo ng isang armas. Alam nila na maaari nilang ganap na pagsamahin ang armas sa pinakabagong mga teknolohiya ng autonomous system. Ito ay isang sandata na sumakay sa alon ng high-tech na nakakamit ng autonomous na paggalaw at mga autonomous na aksyon (ipaliwanag ko nang mas buo, sa ilang sandali).

Sa kabaligtaran, sa pangalawang pagkakataon, isasaalang-alang natin ang usapin ng mga autonomous system na walang partikular na hilig sa armas. Ito ay mga autonomous system na binuo para sa iba pang mga layunin. Isipin ang isang autonomous na sasakyan tulad ng isang self-driving na kotse na gagamitin upang magbigay ng mobility-for-all at tulong sa pagbabawas ng libu-libong taunang pagkamatay na nangyayari dahil sa pagmamaneho ng tao at mga sasakyan na pinapatakbo ng tao (tingnan ang aking malalim na saklaw sa ang link dito). Mukhang hindi isang sandata ang isinasaalang-alang para sa mga masigasig na societally na nagpapalakas ng mga pagsisikap na ilabas ang mga tao mula sa likod ng gulong at ilagay sa halip ang AI sa driver's seat.

Ngunit ang mga hindi nakapipinsalang autonomous system na iyon ay maaaring gawing armas kung nais ng mga tao na gawin ito.

Tinutukoy ko ang pangalawang kategoryang ito noon bilang mga sistemang nagsasarili na may sandata. Ang autonomous na sistema ay orihinal at matapat na ginawa para sa isang malamang na hindi layunin ng sandata. Sa kabila nito, ang mapangarapin na altruistic na pag-asa ay binago ng isang tao sa isang lugar na nakakuha ng mapagkunwari na ideya na ang pagkukunwari na ito ay maaaring maging sandata. Biglang-bigla, ang autonomous system na tila cuddly ay naging isang nakamamatay na sandata sa pamamagitan ng pag-tag sa ilang anyo ng mga kakayahan sa armas (gaya ng mga robot na parang aso na may apat na paa na binanggit kanina na may machine gun o katulad na baril na idinagdag sa kanilang mga tampok) .

Nakalulungkot, ang dalawang kategorya ay napupunta medyo sa parehong lugar, katulad ng pagbibigay ng kapasidad ng paggamit ng mga autonomous system para sa armas sa isang potensyal na nakamamatay na batayan.

Malamang na iba ang proseso ng pagpunta sa endpoint na iyon.

Para sa mga outright weaponized autonomous system na naka-peg bilang mga armas, ang mga aspeto ng armas ay karaniwang nasa harap at gitna. Maaari mong sabihin na ang mga facet ng autonomous system ay nakabalot sa pundasyon ng anumang armas na isinasaalang-alang. Ang proseso ng pag-iisip ng mga developer ay medyo kasama ng mga linya kung paano maaaring pagsamantalahan ng isang sandata ang pagdating ng mga autonomous system.

Ang iba pang pananaw ay kadalasang wala sa mindset na iyon. Gusto ng mga developer na magkaroon ng state-of-the-art na autonomous system, marahil para sa ikabubuti ng sangkatauhan. Inilalagay ng mga developer na ito ang kanilang taos-pusong puso at kaluluwa sa paggawa ng autonomous system. Ito ang ubod ng kanilang imbensyon. Maaaring hindi nila akalain na may mang-aagaw o magpapabagsak sa kanilang mahimalang kapaki-pakinabang na kagamitan. Lubos silang nalulugod sa mga benepisyong panlipunan na nauugnay sa autonomous system na hinuhubog at ginawa.

Sa ilang mga punto, sabihin nating napagtanto ng mga ikatlong partido na ang autonomous system ay maaaring i-rejiggered upang maging armas. Siguro niloloko nila ang mga developer na hayaan silang magkaroon ng autonomous system para sa sinasabing matayog na layunin. Sa likod ng mga saradong pinto, pinipili ng mga masasamang ito na palihim na magdagdag ng kapasidad sa pag-armas sa autonomous system. Voila, ang inosente ay naging tahasang armas.

Ang mga bagay ay hindi kailangang magpatuloy sa ganoong paraan.

Marahil ay sinabihan ang mga developer na sila ay gumagawa ng isang inosenteng autonomous system, ngunit ang mga nagpopondo o nagdidirekta sa pagsisikap ay may iba pang mga layunin sa isip. Marahil ang pagsisikap ng autonomous system ay nagsimula nang inosente, ngunit nang ang mga bayarin ay kailangang bayaran, pinutol ng pamunuan ang isang pakikitungo sa isang pinagmumulan ng pagpopondo na nais ang mga autonomous na sistema para sa mga hindi magandang dahilan. Ang isa pang posibilidad ay alam ng mga developer na ang paggamit sa ibang pagkakataon ay maaaring para sa weaponization ngunit naisip nila na tatawid sila sa napakasakit na tulay kung kailan o kung ito ay bumangon. atbp.

Mayroong maraming at maraming iba't ibang mga landas kung paano gumagana ang lahat ng ito.

Maaari kang makakita ng interes na inilarawan ko sa mga naunang column na mayroong tumataas na kaalaman sa AI Ethics tungkol sa dalwang gamit mga elemento ng kontemporaryong AI, tingnan ang link dito. Hayaan akong sa madaling sabi dalhin ka sa bilis.

Ang isang AI system na naisip para sa kabutihan ay maaaring minsan ay nasa bingit ng masama, marahil sa pamamagitan ng ilang medyo simpleng mga pagbabago, at naaayon ay itinuturing na isang likas na dual-use. Sa balita kamakailan ay may isang AI system na binuo para tumuklas ng mga kemikal na maaaring mamamatay, kung saan gustong tiyakin ng mga developer na maiiwasan o maging maingat tayo sa mga hindi inaakalang kemikal. Lumalabas na ang AI ay maaaring medyo madaling mag-tweak upang tapat na matuklasan ang mga nakamamatay na kemikal na iyon at sa gayon ay potensyal na payagan ang mga baddies na malaman kung anong mga uri ng mga kemikal ang potensyal na lutuin para sa kanilang mga masasamang plano.

Ang mga autonomous system ay maaaring magpakitang magkasya sa dual-use envelopment na iyon.

Sa ilang antas, iyon ang dahilan kung bakit ang AI Ethics at Ethical AI ay isang napakahalagang paksa. Ang mga tuntunin ng AI Ethics ay nagdudulot sa atin na manatiling mapagbantay. Ang mga technologist ng AI ay maaaring minsan ay maging abala sa teknolohiya, lalo na ang pag-optimize ng high-tech. Hindi nila kinakailangang isaalang-alang ang mas malalaking epekto sa lipunan. Ang pagkakaroon ng mindset ng AI Ethics at ang paggawa nito nang buong-buo sa pagbuo at fielding ng AI ay mahalaga para sa paggawa ng naaangkop na AI, kasama na (marahil nakakagulat o balintuna) ang pagtatasa kung paano pinagtibay ng mga kumpanya ang AI Ethics.

Bukod sa paggamit ng mga alituntunin sa AI Ethics sa pangkalahatan, may katumbas na tanong kung dapat ba tayong magkaroon ng mga batas upang pamahalaan ang iba't ibang paggamit ng AI. Ang mga bagong batas ay inilalagay sa paligid sa pederal, estado, at lokal na antas na may kinalaman sa hanay at kalikasan ng kung paano dapat gawin ang AI. Ang pagsisikap na bumalangkas at magpatibay ng mga naturang batas ay unti-unti. Ang AI Ethics ay nagsisilbing isang itinuturing na stopgap, sa pinakamababa, at halos tiyak na sa ilang antas ay direktang isasama sa mga bagong batas na iyon.

Magkaroon ng kamalayan na ang ilan ay matatag na nangangatuwiran na hindi namin kailangan ng mga bagong batas na sumasaklaw sa AI at na ang aming mga kasalukuyang batas ay sapat na. Sa katunayan, nagbabala sila na kung gagawin natin ang ilan sa mga batas na ito ng AI, papaliitin natin ang ginintuang gansa sa pamamagitan ng pagpigil sa mga pagsulong sa AI na nagbibigay ng napakalaking pakinabang sa lipunan.

Ang Autonomy At Ang Sandata Bilang Dalawang Utos

Mayroong isang catchphrase na ginagamit ng ilan upang paunang babala tungkol sa lahat ng uri ng mga sistemang nagsasarili, na pinagsama-sama bilang slaughterbots.

Nagdudulot ito ng karagdagang aspeto na dapat nating pag-isipan.

Ang isang autonomous na sistema ng armas at/o isang autonomous na sistema na na-armas ay kailangang may nakamamatay o nakamamatay na robot na nakararami?

Ang ilan ay magtaltalan na maaari tayong magkaroon ng desisyon hindi nakamamatay weaponized autonomous system din. Kaya, sa pananaw na iyon, mukhang hindi naaangkop na gumamit ng mga parirala tulad ng mga slaughterbot o mga killer robot. Ang isang di-nakamamatay na variant ay malamang na magagawang supilin o gumawa ng pinsala na hindi isang nakamamatay na resulta. Ang mga ganoong sistema ay hindi pumapatay, sila ay may mas mababang kakayahan sa pagbuo ng pinsala. Huwag palakihin ang mga kakayahan, sabihin ang mga iginigiit na hindi natin kailangang maging abala sa isang tahasang killing machine trope.

Kaya, maaaring mayroon tayo nito:

  • Nakamamatay na autonomous na mga sistema ng armas
  • Ang mga nakamamatay na autonomous system na na-armas
  • Non-nakamamatay na autonomous na mga sistema ng armas
  • Non-nakamamatay na autonomous system na na-armas

Siyempre, ang counterargument ay ang anumang autonomous na sistema na na-armas ay tila may potensyal na dumausdos sa kaharian ng lethality, kahit na diumano'y naisip lamang na gamitin sa isang hindi nakamamatay na batayan. Ang incremental na dalawang hakbang ng pagpunta mula sa hindi nakamamatay tungo sa nakamamatay ay mabilis na gagawin sa sandaling mayroon ka nang hawak na sandata sa gitna ng isang autonomous na sistema. Mahihirapan kang magbigay ng garantiya na ang hindi nakamamatay ay hindi makakasama sa nakamamatay na arena (bagaman sinusubukan ng ilan na gawin ito, sa isang matematikal na pagkakahawig).

Bago tayo makakuha ng higit pa sa pangkalahatang paksang ito ng mga autonomous system at weaponization, maaaring madaling ituro ang ibang bagay na kahit na marahil ay halata ay hindi palaging nakikita sa tuktok ng isip.

Narito ito ay:

  • Mayroong isang aspeto ng AI na bahagi at bahagi ng autonomous system
  • Mayroong isang aspeto ng armas na bahagi ng armas ng equation na ito
  • Ang AI ay maaaring magkakaugnay din sa armas

I-unpack natin iyan.

Dapat nating ipagpalagay na ang mga autonomous system ngayon ay nangangailangan ng AI bilang pinagbabatayan ng computerized na paraan ng paglabas ng mga autonomous na facet. Binanggit ko ito dahil maaari mong subukang magtaltalan na maaari kaming gumamit ng mga teknolohiya at diskarteng hindi nauugnay sa AI para gawin ang mga autonomous system, na bagaman totoo, ay mukhang mas maliit at mas malamang. Karaniwan, ang AI ay may posibilidad na payagan ang mas mataas na antas ng awtonomiya, at karamihan ay gumagamit ng AI high-tech nang naaayon.

Okay, kaya mayroon kaming kakayahan na nakabatay sa AI na naipasok sa anumang paraan sa loob ng autonomous system at kumikilos upang gabayan at kontrolin ang autonomous system.

Panatilihin iyon sa iyong mga kamay bilang panuntunan ng hinlalaki.

Mukhang madaling maliwanag na kailangan din nating magkaroon ng ilang uri ng armas, kung hindi, bakit natin tinatalakay dito ang paksa ng mga autonomous system at mga armas. Kaya, oo, malinaw naman, mayroong isang sandata ng isang uri o iba pa.

Hindi ko na sisilipin ang uri ng armas na maaaring gamitin. Maaari mo lamang palitan ang anumang armas na nasa isip mo. Maaaring may pinpoint na armas. Maaaring mayroong mass-oriented na mapanirang armas. Maaaring ito ay isang bagay na may mga bala o projectiles. Maaaring ito ay isang bagay na may mga kemikal o atomic volatile na bahagi. Ang listahan ay walang katapusan.

Ang karagdagang pagsasaalang-alang ay kung ang AI ay magkakaugnay o hindi sa armas. Maaaring sumakay lang ang AI sa armas. Sa kaso ng robot na may apat na paa na nagpaputok ng baril, marahil ang baril ay pinaputok ng isang tao na may remote control na konektado sa pag-trigger ng armas. Ang robot na tulad ng aso ay nagna-navigate sa isang eksena at pagkatapos ay nasa malayong tao ang humila ng gatilyo.

Sa kabilang banda, ang AI ay maaaring maging trigger puller, kumbaga. Ang AI ay maaaring ginawa upang hindi lamang mag-navigate at maniobra ngunit i-activate din ang sandata. Sa ganoong kahulugan, ginagawa ng AI ang lahat mula A hanggang Z. Walang pag-asa sa isang malayong tao upang maisagawa ang bahagi ng armas ng mga bagay. Ang AI ay na-program na gawin iyon sa halip.

Upang linawin kung gayon sa partikular na kaso ng paggamit ng mga autonomous system na ginawang armas, mayroon kaming mga ganitong uri ng mga posibilidad:

  • Autonomous System: Pinapatakbo ng AI ang autonomous system nang mag-isa
  • Autonomous System: Pinapatakbo ng AI ang autonomous system, ngunit maaari ding makialam ang isang human-in-the-loop
  • Armas: Ang malayong tao ay nagpapatakbo ng armas (ang AI ay hindi)
  • Armas: Pinapatakbo ng AI ang armas, ngunit maaari ding makialam ang isang human-in-the-loop
  • Armas: Ang AI ay ganap na nagpapatakbo ng armas sa sarili nitong sarili

Nasaklaw ko na dati ang mga variation ng pagkakaroon ng human-in-the-loop tungkol sa mga autonomous system at autonomous na sasakyan, tingnan ang link dito.

Kapag pinanood mo ang mga nakakatuwang video na iyon ng mga sumasayaw at nagsasayaw na mga robot na may apat na paa, ang mga ito ay karaniwang mga robot na eksklusibong pinapatakbo ng AI (well, iyon ang custom o itinuturing na wastong etiquette sa gitna ng mga malalim. sa mga bagay na ito). Iyan ang maaari mo ring ipagpalagay na nararapat. Siyempre, hindi mo alam iyon para sigurado. Maaaring ang isang remote na operator ng tao ang gumagabay sa mga robot. Mayroon ding posibilidad na ang AI ay bahagi ng paggabay, at ginagawa rin ito ng isang remote na operator ng tao, marahil ay tumutulong sa AI kung ang robot ay napunta sa isang matigas na posisyon at hindi maaaring makalkula ng computation ang isang praktikal na paraan upang malaya ang sarili.

Ang buod dito ay mayroong maraming mga lasa kung paano nagagawang mapaghalo ang AI at mga autonomous system at weaponization. Ang ilan ay may AI na nagpapatakbo ng autonomous system ngunit hindi nagpapatakbo ng armas. Ang isang tao ay maaaring malayuan na nagpapatakbo ng armas. Ang isa pang anggulo ay ang armas ay maaaring na-activate muna, at ang autonomous system ay naghahatid ng naka-activate na sandata, kaya ang AI ay hindi direktang nakibahagi sa pag-trigger ng armas per se at sa halip ay kumikilos bilang isang sasakyan sa paghahatid. At maaaring ang AI ay isang proverbial jack-of-all-trades at ginagawa din ang buong gamut ng mga autonomous system na aspeto sa paggamit ng armas.

Pumili ka.

Samantala, mangyaring malaman na ang human-in-the-loop ay isang malaking kadahilanan pagdating sa mga debate sa paksang ito.

Ang isang linya ng paghahati ng ilan ay kung ang AI ay gumagawa ng pag-target at pagbaril (o anuman ang kasama ng sandata) kung gayon ang buong kit at caboodle ay tumawid sa walang lupain. Ito ay tila naiiba sa mga nakasanayang sunog-at-kalimutin na mga sandata na may paunang naka-target na seleksyon na itinakda ng tao, tulad ng isang patrolling drone na may isang missile na handa para sa pagpapaputok sa isang target na na pinili ng isang tao.

Ang ilan ay nagtataka kung bakit ang mga autonomous system na naka-armas ay hindi palaging kasama ang isang human-in-the-loop sa buong proseso ng autonomous system na nasa aktibong status. Mukhang mas makakabuti tayo kung ang isang mahigpit na kinakailangan ay ang lahat ng naturang weaponized autonomous system ay kailangang magkaroon ng human-in-the-loop, alinman sa paggawa nito para sa pagpapatakbo ng autonomous system o para sa pagpapatakbo ng armas (o para sa pareho) . Ang pagpapanatili ng isang ipinapalagay na sigurado at matatag na kamay ng tao sa AI mix na ito ay maaaring mukhang ganap na matalino.

Maghanda para sa isang mahabang listahan ng mga dahilan kung bakit ito ay hindi kinakailangang magagawa.

Isaalang-alang ang mga paghihirap na ito:

  • Maaaring hindi sapat ang bilis ng Human-in-the-loop upang tumugon sa napapanahong paraan
  • Maaaring walang sapat na impormasyon ang Human-in-the-loop para masunurin na tumugon
  • Maaaring hindi available ang Human-in-the-loop sa oras na kinakailangan
  • Ang Human-in-the-loop ay maaaring hindi makapagpasya at hindi kikilos kapag kinakailangan
  • Ang Human-in-the-loop ay maaaring gumawa ng "maling" desisyon (medyo)
  • Maaaring hindi ma-access ang Human-in-the-loop mula sa system sa kinakailangang oras
  • Ang Human-in-the-loop ay maaaring malito at ma-overwhelm
  • At iba pa

Walang alinlangan na natutukso kang tingnan ang listahang iyon ng mga kahinaan at limitasyon ng tao at pagkatapos ay dumating sa solemne na konklusyon na maliwanag na makatuwirang i-excise ang human-in-the-loop at palaging gumamit ng AI. Maaaring hindi ito kasama sa human-in-the-loop o maaaring ma-override ng AI ang isang nakatanim na disenyo ng human-in-the-loop. Tingnan ang aking pagsusuri kung paano ang mga hindi pagkakasundo sa pagitan ng AI at isang human-in-the-loop ay maaaring humantong sa mga tiyak na sitwasyon, na sakop sa ang link dito.

Kadalasan, ang isang mapang-akit na listahan ng mga ganitong uri ng real-time na mga downside na nakatuon sa tao ay naiwan sa sarili nitong pagsang-ayon at nag-iiwan ng matagal na impresyon na ang AI ay dapat kahit papaano ay lumukso at may hangganan ng isang mas matalinong pagpili kaysa sa pagkakaroon ng isang human-in-the-loop . Huwag mahulog sa mapanlinlang na bitag. May mga nakapaloob na tradeoff na kasangkot.

Isaalang-alang ang mga epektong ito ng AI:

  • Maaaring makatagpo ang AI ng error na nagiging sanhi ng pagkaligaw nito
  • Maaaring ma-overwhelm ang AI at mag-lock up nang hindi tumutugon
  • Maaaring naglalaman ang AI ng mga bug ng developer na nagdudulot ng maling gawi
  • Maaaring masira ang AI sa implanted evildoer virus
  • Maaaring sakupin ng mga cyberhacker ang AI sa real-time
  • Maaaring ituring na hindi mahulaan ang AI dahil sa mga kumplikado
  • Ang AI ay maaaring gumawa ng "maling" desisyon (medyo) sa computation
  • At iba pa

Nagtitiwala ako na makikita mo na may mga tradeoff sa pagitan ng paggamit ng human-in-the-loop kumpara sa pagiging umaasa lamang sa AI. Kung sakaling matukso kang magmungkahi na ang handa na solusyon ay gamitin ang dalawa, gusto ko lang bigyang-diin na makukuha mo ang pinakamahusay sa parehong mundo, ngunit maaari mo ring makuha ang pinakamasama sa parehong mundo. Huwag ipagpalagay na ito ay palaging at tiyak na magiging pinakamahusay sa parehong mundo.

Maaaring medyo nagulat ka sa isa sa mga nakalista sa itaas na downsides tungkol sa AI, partikular na ang AI ay maaaring mahuhulaan. Nakasanayan na namin na maniwala na ang AI ay dapat na mahigpit na lohikal at tumpak sa matematika. Dahil dito, maaari mo ring asahan na ang AI ay ganap na mahulaan. Dapat nating malaman nang eksakto kung ano ang gagawin ng AI. Panahon, pagtatapos ng kwento.

Paumanhin sa pagsabog ng lobo na iyon ngunit ang mitolohiyang ito ng predictability ay isang maling pangalan. Ang laki at pagiging kumplikado ng modernong AI ay madalas na isang morass na sumasalungat sa pagiging perpektong predictable. Ito ay nakikita sa Ethical AI uproars tungkol sa ilang Machine Learning (ML) at Deep Learning (DL) na gamit ngayon. Magpapaliwanag ako saglit.

Gayundin, maaari mong tingnan ang aking pinakabagong pagsusuri sa mga paparating na uso patungo sa pagsisikap na matiyak na mapapatunayan at mathematically provably tama AI system sa pamamagitan ng pinakabagong sa kaligtasan ng AI, sa ang link dito.

Nagmumuni-muni Sa Mga Panuntunan Ng Daan

Nabanggit ko ang paniwala ng mga target at pag-target, na isang medyo mabigat na piraso ng terminolohiya na nararapat pansinin.

Maaari nating pag-isipan ito:

  • Mga target na tao
  • Mga target na hindi mga tao ngunit mga buhay na nilalang
  • Mga target na tinuturing bilang ari-arian

Ipagpalagay na mayroon tayong isang autonomous system na na-armas. Ang AI ay ginagamit upang gabayan ang autonomous system at ginagamit para sa armas. Ginagawa ng AI ang lahat mula A hanggang Z. Walang probisyon para sa isang human-in-the-loop. Sa mga tuntunin ng pag-target, pipiliin ng AI ang mga target. Walang pre-targeting na itinatag ng mga tao. Sa halip, ang AI ay na-program upang pangkalahatang tiyakin kung mayroong mga tao na dapat i-target (maaaring pag-scan para sa mga pagalit na aksyon, ilang uri ng uniporme, at iba pa).

Kasama ko dito hanggang ngayon?

Ang sitwasyong ito ay halos ang isa na nagdudulot ng pinakamaraming hiyaw tungkol sa mga weaponized na autonomous system.

Ang nakasaad na alalahanin ay ang AI ay gumagawa (hindi bababa sa) tatlong bagay na hindi dapat ito pahintulutang gawin:

  • Tinatarget ang mga tao bilang mga target
  • Pag-target nang hindi gumagamit ng human-in-the-loop
  • Posibleng kumilos nang hindi nahuhulaangly

Pansinin na may nakatutok na pagbanggit ng mga alalahanin tungkol sa pagiging unpredictable ng AI. Maaaring kahit na ang AI ay na-program upang i-target ang ilang uri ng mga tao, ang AI programming ay hindi tulad ng naisip namin, at ang AI ay nagtatapos sa pag-target ng "mga kaibigan" bilang karagdagan sa mga na dapat ipakahulugan ng AI bilang "mga kaaway. ” (o, marahil bilang kapalit ng). Higit pa rito, kahit na pipiliin nating isama ang isang probisyon na human-in-the-loop, ang hindi mahuhulaan ng AI ay maaaring mangahulugan na kapag ang AI ay dapat na makipag-usap sa human-in-the-loop, hindi nito magawa kaya at kumikilos nang walang anumang interbensyon ng tao.

Maaari kang makakita ng interes na ang International Committee of the Red Cross (ICRC) ay naghandog ng isang tatlong-puntong pangkalahatang posisyon tungkol sa mga autonomous na sistema ng armas na nagpapaliwanag sa mga ganitong uri ng alalahanin (ayon sa website ng ICRC):

1. "Ang mga hindi nahuhulaang autonomous na sistema ng armas ay dapat na malinaw na pinasiyahan Palabas, lalo na dahil sa kanilang walang pinipiling epekto. Ito ay pinakamahusay na makakamit sa isang pagbabawal sa mga autonomous na sistema ng armas na idinisenyo o ginagamit sa isang paraan na ang kanilang mga epekto ay hindi sapat na maunawaan, mahulaan, at maipaliwanag."

2. “Sa liwanag ng mga etikal na pagsasaalang-alang upang pangalagaan ang sangkatauhan, at upang itaguyod ang mga tuntunin ng internasyonal na makataong batas para sa proteksyon ng mga sibilyan at mga mandirigma hors de combat, ang paggamit ng mga autonomous na sistema ng armas upang i-target ang mga tao ay dapat na iwasan. Ito ay pinakamahusay na makakamit sa pamamagitan ng isang pagbabawal sa mga autonomous na sistema ng armas na idinisenyo o ginagamit upang maglapat ng puwersa laban sa mga tao."

3. “Upang maprotektahan ang mga sibilyan at mga bagay na sibilyan, itaguyod ang mga tuntunin ng internasyunal na makataong batas at pangalagaan ang sangkatauhan, ang disenyo at paggamit ng mga autonomous na sistema ng armas na hindi ipinagbabawal ay dapat na regulahin, kabilang ang sa pamamagitan ng kumbinasyon ng: mga limitasyon sa mga uri ng target, tulad ng pagpilit sa kanila sa mga bagay na likas na layunin ng militar; mga limitasyon sa tagal, heograpikal na saklaw at sukat ng paggamit, kabilang ang upang paganahin ang paghatol at kontrol ng tao na may kaugnayan sa isang partikular na pag-atake; mga limitasyon sa mga sitwasyon ng paggamit, tulad ng pagpilit sa kanila sa mga sitwasyon kung saan ang mga sibilyan o mga bagay na sibilyan ay wala; rmga kinakailangan para sa pakikipag-ugnayan ng tao-machine, lalo na upang matiyak ang epektibong pangangasiwa ng tao, at napapanahong interbensyon at pag-deactivate."

Sa kaugnay na pananaw, ang United Nations (UN) sa pamamagitan ng Convention on Certain Conventional Weapons (CCW) sa Geneva ay nagtatag ng labing-isang di-nagbubuklod na Mga Prinsipyo ng Paggabay sa Lethal Autonomous Weapons, ayon sa opisyal na ulat na nai-post online (na sumasaklaw sa mga sanggunian sa nauugnay na International Humanitarian Batas o IHL proviso):

(a) Ang internasyunal na makataong batas ay patuloy na ganap na nalalapat sa lahat ng sistema ng armas, kabilang ang potensyal na pag-unlad at paggamit ng mga nakamamatay na autonomous na sistema ng armas;

(b) Ang pananagutan ng tao para sa mga desisyon sa paggamit ng mga sistema ng armas ay dapat panatilihin dahil ang pananagutan ay hindi mailipat sa mga makina. Dapat itong isaalang-alang sa buong ikot ng buhay ng sistema ng armas;

(c) Ang pakikipag-ugnayan ng tao-machine, na maaaring magkaroon ng iba't ibang anyo at ipatupad sa iba't ibang yugto ng ikot ng buhay ng isang armas, ay dapat tiyakin na ang potensyal na paggamit ng mga sistema ng armas batay sa mga umuusbong na teknolohiya sa lugar ng mga nakamamatay na autonomous na sistema ng armas ay nasa pagsunod sa naaangkop na internasyonal na batas, sa partikular na IHL. Sa pagtukoy sa kalidad at lawak ng interaksyon ng tao-machine, isang hanay ng mga salik ang dapat isaalang-alang kabilang ang konteksto ng pagpapatakbo, at ang mga katangian at kakayahan ng sistema ng armas sa kabuuan;

(d) Ang pananagutan para sa pagbuo, pag-deploy at paggamit ng anumang umuusbong na sistema ng armas sa balangkas ng CCW ay dapat tiyakin alinsunod sa naaangkop na internasyonal na batas, kabilang ang sa pamamagitan ng pagpapatakbo ng mga naturang sistema sa loob ng isang responsableng hanay ng utos at kontrol ng tao;

(e) Alinsunod sa mga obligasyon ng Estado sa ilalim ng internasyunal na batas, sa pag-aaral, pagpapaunlad, pagkuha, o pagpapatibay ng isang bagong sandata, paraan o paraan ng pakikidigma, ang pagpapasiya ay dapat gawin kung ang pagtatrabaho nito ay, sa ilan o lahat ng pagkakataon, ay magiging ipinagbabawal ng internasyonal na batas;

(f) Kapag bumubuo o nakakakuha ng mga bagong sistema ng armas batay sa mga umuusbong na teknolohiya sa lugar ng mga nakamamatay na autonomous na sistema ng armas, pisikal na seguridad, naaangkop na mga hindi pisikal na pag-iingat (kabilang ang cyber-security laban sa pag-hack o data spoofing), ang panganib ng pagkuha ng mga teroristang grupo at ang panganib ng paglaganap ay dapat isaalang-alang;

(g) Ang mga pagtatasa ng panganib at mga hakbang sa pagpapagaan ay dapat na bahagi ng disenyo, pagbuo, pagsubok at cycle ng pag-deploy ng mga umuusbong na teknolohiya sa anumang mga sistema ng armas;

(h) Dapat isaalang-alang ang paggamit ng mga umuusbong na teknolohiya sa larangan ng mga nakamamatay na autonomous na sistema ng armas sa pagtataguyod ng pagsunod sa IHL at iba pang naaangkop na internasyonal na legal na obligasyon;

(i) Sa paggawa ng mga potensyal na hakbang sa patakaran, ang mga umuusbong na teknolohiya sa lugar ng mga nakamamatay na autonomous na sistema ng mga armas ay hindi dapat gawing antropomorphize;

(j) Ang mga talakayan at anumang mga potensyal na hakbang sa patakaran na ginawa sa loob ng konteksto ng CCW ay hindi dapat makahadlang sa pag-unlad o pag-access sa mapayapang paggamit ng mga intelligent na autonomous na teknolohiya;

(k) Ang CCW ay nag-aalok ng naaangkop na balangkas para sa pagharap sa isyu ng mga umuusbong na teknolohiya sa larangan ng mga nakamamatay na autonomous na sistema ng armas sa loob ng konteksto ng mga layunin at layunin ng Convention, na naglalayong magkaroon ng balanse sa pagitan ng pangangailangang militar at makataong pagsasaalang-alang.

Ang Kalungkutan na Nakikita Natin

Ang iba't ibang batas na ito ng digmaan, mga batas ng armadong labanan, o IHL (International Humanitarian Laws) ay nagsisilbing isang mahalaga at maaasahang gabay sa pagsasaalang-alang kung ano ang maaari nating subukang gawin tungkol sa pagdating ng mga autonomous system na ginawang sandata, sa pamamagitan man ng disenyo ng keystone o sa pamamagitan ng after-the-fact na pamamaraan.

Taos-puso nating hilingin na ang pagbabawal sa nakamamatay na mga sistemang nagsasarili ay mahigpit at masunuring sundin. Ang problema ay ang maraming wiggle room ay tiyak na palihim na matatagpuan sa loob ng alinman sa mga pinaka-tapat na pagbabawal. Sabi nga nila, rules are meant to be broken. Maaari kang tumaya na kung saan ang mga bagay ay maluwag, ang riffraff ay maglalabas ng mga puwang at susubukan na mag-wink-wink sa kanilang pagsunod sa mga patakaran.

Narito ang ilang potensyal na butas na dapat isaalang-alang:

  • Mga Pag-aangkin ng Non-Lethal. Gumawa hindi nakamamatay autonomous na mga sistema ng armas (tila okay dahil nasa labas ito ng hangganan ng pagbabawal), na maaari mong baguhin sa isang dime shift sa pagiging nakamamatay (malalampas ka lang sa pagbabawal sa huling minuto).
  • Mga Claim ng Autonomous System Lamang. Panindigan ang pagbabawal sa pamamagitan ng hindi paggawa ng mga nakamamatay na autonomous system, samantala, ay gumagawa ng mas maraming pag-unlad sa pagbuo ng pang-araw-araw na mga autonomous system na hindi pa (pa) weaponized ngunit na maaari mong sa isang dime retrofit sa pagiging weaponized.
  • Mga Claim ng Hindi Pinagsama Bilang Isa. Gumagawa ng mga autonomous system na hindi talaga na-armas, at pagdating ng panahon, piggyback weaponization na maaari mong subukang maigiit na pagtalunan na ang mga ito ay dalawang magkahiwalay na elemento at samakatuwid ay ipagtanggol na hindi sila kabilang sa rubric ng isang all-in-one. autonomous weapon system o ang pinsan nito.
  • Sinasabing Hindi Ito Nagsasarili. Gumawa ng isang sistema ng armas na tila wala sa mga autonomous na kapasidad. Mag-iwan ng puwang sa ipinapalagay na hindi autonomous na sistemang ito para sa pag-drop in ng autonomy na nakabatay sa AI. Kung kinakailangan, isaksak ang awtonomiya at handa ka nang gumulong (hanggang noon, tila hindi mo nilalabag ang pagbabawal).
  • iba

Maraming iba pang ipinahayag na kahirapan sa pagsisikap na tahasan na ipagbawal ang mga nakamamatay na autonomous na sistema ng armas. Sasaklawin ko pa ang ilan sa kanila.

Ang ilang mga pantas ay nangangatuwiran na ang pagbabawal ay hindi partikular na kapaki-pakinabang at sa halip ay dapat mayroong mga probisyon sa regulasyon. Ang ideya ay ang mga kagamitang ito ay papayagan ngunit mahigpit na binabantayan. Inilatag ang isang litanya ng mga legal na paggamit, kasama ng mga legal na paraan ng pag-target, mga legal na uri ng mga kakayahan, proporsyonalidad ayon sa batas, at mga katulad nito.

Sa kanilang pananaw, ang isang direktang pagbabawal ay tulad ng paglalagay ng iyong ulo sa buhangin at pagpapanggap na ang elepante sa silid ay wala. Bagama't ang pagtatalo na ito ay kumukulo ng dugo ng mga sumasalungat sa argumento na sa pamamagitan ng pagpapatibay ng pagbabawal ay nagagawa mong kapansin-pansing bawasan ang tuksong ituloy ang mga ganitong uri ng sistema. Oo naman, ang ilan ay ipagmamalaki ang pagbabawal, ngunit hindi bababa sa inaasahan na karamihan ay hindi. Pagkatapos ay maaari mong ituon ang iyong pansin sa mga nagpapahayag at hindi na kailangang hatiin ang iyong pansin sa lahat.

Paikot-ikot ang mga debateng ito.

Ang isa pang madalas na binabanggit na alalahanin ay na kahit na ang mabuti ay sumunod sa pagbabawal, ang masama ay hindi. Inilalagay nito ang mabuti sa isang pangit na pustura. Ang masama ay magkakaroon ng mga ganitong uri ng weaponized autonomous system at ang mabuti ay hindi. Kapag nabunyag na ang mga bagay na mayroon ang masama, huli na ang lahat para maabutan ng mabuti. Sa madaling salita, ang tanging matalinong bagay na dapat gawin ay maghanda upang labanan ang apoy gamit ang apoy.

Mayroon ding klasikong pagtatalo sa pagpigil. Kung pipiliin ng mahusay na gumawa ng mga weaponized na autonomous system, magagamit ito para hadlangan ang masamang hangarin na pumasok sa isang tunggalian. Alinman sa mabubuti ay magiging mas mahusay na armado at sa gayon ay maiiwasan ang masama, o ang mabuti ay magiging handa kapag ang masama ay maaaring magbunyag na sila ay palihim na gumagawa ng mga sistemang iyon sa lahat ng panahon.

Ang isang kontra sa mga counter na ito ay na sa pamamagitan ng paggawa ng weaponized autonomous system, ikaw ay nagsasagawa ng isang arm race. Ang kabilang panig ay magsisikap na magkaroon ng pareho. Kahit na hindi na nila kayang lumikha muli ng mga ganitong sistema sa teknolohiya, magagawa na nilang nakawin ang mga plano ng mga "mabubuti", i-reverse engineer ang high-tech na lakas ng loob, o gayahin ang anumang tila nakikita nilang subok at totoo. paraan para magawa ang trabaho.

Ah, ang sagot ng ilan, ang lahat ng ito ay maaaring humantong sa isang pagbawas sa mga salungatan sa pamamagitan ng isang pagkakahawig ng kapwa. Kung alam ng side A na ang side B ay may mga nakamamatay na autonomous system na mga armas, at alam ng side B na nasa side A ang mga ito, maaaring maupo sila ng mahigpit at hindi sila magkasuntukan. Mayroon itong kakaibang aura ng mutually assured destruction (MAD) vibes.

At iba pa.

Ang AI Sa Autonomy

Siguraduhin natin na tayo ay nasa parehong pahina tungkol sa likas na katangian ng AI ngayon.

Walang anumang AI ngayon na nakakaramdam. Wala kaming ganito. Hindi namin alam kung magiging posible ang sentient AI. Walang sinuman ang maaaring mahuhulaan kung makakamit natin ang sentient AI, o kung ang sentient AI ay kahit papaano ay miraculously kusang lalabas sa isang anyo ng computational cognitive supernova (karaniwang tinutukoy bilang ang singularity, tingnan ang aking coverage sa ang link dito).

Ang uri ng AI na pinagtutuunan ko ng pansin ay binubuo ng non-sentient AI na mayroon tayo ngayon. Kung gusto nating mag-isip-isip tungkol sa nagbabago AI, ang talakayang ito ay maaaring pumunta sa ibang direksyon. Ang isang pakiramdam na AI ay dapat na may kalidad ng tao. Kailangan mong isaalang-alang na ang sentient AI ay ang cognitive equivalent ng isang tao. Higit pa rito, dahil ang ilan ay nag-iisip na maaari tayong magkaroon ng super-intelligent na AI, maiisip na ang naturang AI ay maaaring maging mas matalino kaysa sa mga tao (para sa aking paggalugad ng super-intelligent na AI bilang isang posibilidad, tingnan ang ang coverage dito).

Panatilihin natin ang mga bagay na mas down to earth at isaalang-alang ang computational non-sentient AI ngayon.

Napagtanto na ang AI ngayon ay hindi nagagawang "mag-isip" sa anumang paraan na katumbas ng pag-iisip ng tao. Kapag nakipag-ugnayan ka kay Alexa o Siri, ang mga kakayahan sa pakikipag-usap ay maaaring mukhang katulad ng mga kapasidad ng tao, ngunit ang katotohanan ay ito ay computational at walang katalinuhan ng tao. Ang pinakabagong panahon ng AI ay gumawa ng malawakang paggamit ng Machine Learning (ML) at Deep Learning (DL), na gumagamit ng computational pattern matching. Ito ay humantong sa mga AI system na may hitsura ng mga proclivities na tulad ng tao. Samantala, walang anumang AI ngayon na may kamukha ng sentido komun at wala ring anumang nakakaisip na pagtataka ng matatag na pag-iisip ng tao.

Maging maingat sa pag-antropomorphize ng AI ngayon.

Ang ML/DL ay isang anyo ng computational pattern matching. Ang karaniwang diskarte ay ang mag-ipon ka ng data tungkol sa isang gawain sa paggawa ng desisyon. Ipapakain mo ang data sa mga modelo ng ML/DL computer. Ang mga modelong iyon ay naghahangad na makahanap ng mga pattern ng matematika. Matapos mahanap ang gayong mga pattern, kung ito ay natagpuan, gagamitin ng AI system ang mga pattern na iyon kapag nakatagpo ng bagong data. Sa pagtatanghal ng bagong data, ang mga pattern na batay sa "luma" o makasaysayang data ay inilapat upang mag-render ng kasalukuyang desisyon.

Sa tingin ko maaari mong hulaan kung saan ito patungo. Kung ang mga tao na gumagawa ng pattern sa mga desisyon ay nagsasama ng mga hindi kanais-nais na pagkiling, malamang na ang data ay nagpapakita nito sa banayad ngunit makabuluhang mga paraan. Ang Machine Learning o Deep Learning computational pattern matching ay susubukan lang na mathematically gayahin ang data nang naaayon. Walang pagkakahawig ng sentido komun o iba pang nakikitang aspeto ng AI-crafted modeling per se.

Higit pa rito, maaaring hindi napagtanto ng mga developer ng AI kung ano ang nangyayari. Ang arcane mathematics sa ML/DL ay maaaring magpahirap sa pag-iwas sa mga nakatagong bias ngayon. Nararapat kang umasa at aasahan na ang mga developer ng AI ay susubok para sa mga potensyal na nakabaon na bias, kahit na ito ay mas nakakalito kaysa sa tila. Mayroong matatag na pagkakataon na kahit na may medyo malawak na pagsubok na magkakaroon pa rin ng mga bias na naka-embed sa loob ng mga pattern na tumutugma sa mga modelo ng ML/DL.

Medyo maaari mong gamitin ang sikat o kasumpa-sumpa na kasabihan ng garbage-in garbage-out. Ang bagay ay, ito ay mas katulad sa mga biases-in na insidiously makakuha infused bilang biases lumubog sa loob ng AI. Ang algorithm na paggawa ng desisyon (ADM) ng AI ay axiomatically nagiging puno ng hindi pagkakapantay-pantay.

Hindi maganda.

Gamit ang idinagdag na background na batayan, muli tayong bumaling sa autonomous na mga sistema at paksa ng pag-aarmas. Nauna naming nakita na ang AI ay pumapasok sa autonomous system component at maaari ding pumasok sa weaponization component. Ang AI ngayon ay hindi nakakaramdam. Ito ay karapat-dapat na ulitin at iha-highlight ko ito para sa mga karagdagang insight sa mga usaping ito.

Tuklasin natin ang ilang mga sitwasyon upang makita kung paano ito isang mahalagang pagsasaalang-alang. Saglit akong aalis sa isang oryentasyon sa panahon ng digmaan sa paksang ito at ipapakita kung paano ito tumatagos sa maraming iba pang social milieus. Patatagin ang iyong sarili nang naaayon.

Ang isang autonomous system na nakabatay sa AI tulad ng isang autonomous na sasakyan na masasabi nating walang anumang kinalaman sa mga armas ay dumadaan sa isang normal na lugar. Dumating ang isang tao upang gamitin ang autonomous na sasakyan. Ang tao ay armado ng isang nakakatakot na sandata. Ipagpalagay para sa kapakanan ng talakayan sa partikular na sitwasyong ito na ang tao ay may isang bagay na hindi kanais-nais sa isip. Ang tao ay nakapasok sa autonomous na sasakyan (dala ang kanilang sandata, nakatago o hindi nakatago, alinmang paraan).

Ang autonomous na sasakyan ay nagpapatuloy sa anumang destinasyon na hiniling ng rider. Sa kasong ito, ang AI ay simpleng dinadala ang pasaherong ito mula sa isang pickup na lokasyon patungo sa isang itinalagang destinasyon, tulad ng ginagawa nito para sa posibleng dose-dosenang o daan-daang mga biyahe, bawat araw.

Kung ito ay isang driver ng tao at isang sasakyang minamaneho ng tao, malamang na may ilang pagkakataon na ang driver ng tao ay mapagtanto na ang pasahero ay armado at tila may masamang intensyon. Maaaring tumanggi ang driver ng tao na magmaneho ng sasakyan. O ang driver ng tao ay maaaring magmaneho sa istasyon ng pulisya. O baka subukan ng taong driver na supilin ang armadong pasahero (umiiral ang mga naiulat na pagkakataon) o pigilan ang pasahero na gamitin ang kanilang armas. Ito ay medyo kumplikado, at anumang bilang ng mga pagkakaiba-iba ay maaaring umiral. Mahihirapan kang igiit na iisa lamang ang tamang sagot sa paglutas ng gayong suliranin. Nakalulungkot, ang sitwasyon ay nakakainis at malinaw na mapanganib.

Ang AI sa kasong ito ay malamang na hindi ma-program para sa alinman sa mga ganitong uri ng mga posibilidad. Sa madaling salita, maaaring magamit ng armadong pasahero ang kanilang sandata, na ginagawa ito mula sa loob ng autonomous na sasakyan, sa panahon ng paglalakbay sa pagmamaneho. Ang sistema ng pagmamaneho ng AI ay magpapatuloy sa paglalakbay at ang autonomous na sasakyan ay magpapatuloy sa nakasaad na pagtatalaga ng pasahero (ipagpalagay na ang destinasyon ay hindi itinuturing na out-of-bounds).

Karamihan sa mga kontemporaryong sistema ng pagmamaneho ng AI ay nakatuon lamang sa kalkulasyon sa daanan at hindi sa mga pagsisikap ng rider.

Maaaring lumala ang mga bagay kaysa dito.

Ipagpalagay na nais ng isang tao na magpadala ng isang bungkos ng mga pamilihan sa isang lugar na kumukuha ng karagdagang pagkain para sa nangangailangan. Ang tao ay humiling ng isang autonomous na sasakyan at inilalagay ang mga bag ng mga pamilihan sa backseat ng sasakyan. Hindi sila sasama sa pagsakay at ginagamit lang ang autonomous na sasakyan upang ihatid ang mga supot ng pagkain para sa kanila.

Mukhang ayos na ayos.

Isipin na ang isang tusong tao ay nag-opt sa halip na maglagay ng ilang uri ng pag-armas sa autonomous na sasakyan kaysa sa mas mapayapang ideya ng mga grocery bag. Sa tingin ko maaari mong hulaan kung ano ang maaaring mangyari. Ito ay isang alalahanin na paulit-ulit kong hinihimok sa aking mga kolum at nagbabala na kailangan nating harapin nang mas maaga kaysa sa huli.

Ang isang ibinibigay na tugon sa mga ganitong uri ng mga sitwasyon ay marahil ang lahat ng mga autonomous na sasakyan ay maaaring i-program upang gamitin ang kanilang mga camera at iba pang mga sensor upang subukan at makita kung ang isang potensyal na pasahero ay armado at may masamang intensyon. Marahil ang AI ay na-program upang gawin ito. O ang AI sa elektronikong paraan at tahimik na inaalerto ang isang remote na operator ng tao na pagkatapos ay sa pamamagitan ng mga camera ay biswal at kung hindi man ay susuriin at posibleng makipag-ugnayan sa pasahero. Ang lahat ng ito ay bahagi ng isang masalimuot at potensyal na hindi maaalis na lata ng mga uod, kung kaya't nagdudulot ito ng matinding isyu sa privacy at marami pang potensyal na alalahanin sa Ethical AI. Tingnan ang aking coverage sa ang link dito.

Ang isa pang medyo katulad na alternatibo ay ang AI ay naglalaman ng ilang uri ng naka-embed na ethics programming na sumusubok na paganahin ang AI na gumawa ng etikal o moral na mga paghuhusga na karaniwang nakalaan para sa mga taong gumagawa ng desisyon. Sinuri ko ang mga uri ng paggawa ng serbesa ng AI-embedded computational ethics prognosticators, tingnan ang link dito at ang link dito.

Kung babalikan ang senaryo sa larangan ng digmaan, isipin na ang isang nakamamatay na autonomous na sistema ng mga armas ay naglalayag sa ibabaw ng isang combat zone. Ang AI ay nagpapatakbo ng autonomous system. Ang AI ay nagpapatakbo ng mga armas onboard. Nauna na naming naisip ang posibilidad na ang AI ay maaaring ma-program upang mag-scan para sa mga tila pagalit na paggalaw o iba pang mga tagapagpahiwatig ng mga target ng tao na itinuring na wastong mga mandirigma.

Dapat bang magkaroon ang parehong AI na ito ng ilang uri ng bahaging nakatuon sa etika na nagsusumikap na isaalang-alang ang computationally kung ano ang maaaring gawin ng isang human-in-the-loop, na kumikilos sa isang kahulugan sa halip na magkaroon ng human-in-the-loop?

May nagsasabing oo, ituloy natin ito. Ang ilan ay umuurong sa takot at nagsasabing ito ay imposible o kung hindi man ay lumalabag sa kabanalan ng sangkatauhan.

Isa pang lata ng uod.

Konklusyon

Para sa mga interesado sa paksang ito, marami pang dapat pag-usapan.

Bibigyan kita ng isang mabilis na pagtikim ng isang nakakaakit na palaisipan.

Karaniwan nating inaasahan na ang isang tao sa huli ay mananagot sa anumang mangyayari sa panahon ng digmaan. Kung kinokontrol ng AI ang isang autonomous na sistema ng armas o kinokontrol ang isang autonomous na sistema na malamang ay na-armas, at ang sistemang ito ay gumagawa ng isang bagay sa larangan ng digmaan na pinaniniwalaan na walang konsensya, sino o ano ang dapat sisihin para dito?

Maaari kang magtaltalan na ang AI ay dapat managot. Ngunit, kung gayon, ano ang eksaktong ibig sabihin nito? Hindi pa namin isinasaalang-alang ang AI ngayon bilang embodiment ng legal na katauhan, tingnan ang aking paliwanag sa ang link dito. Walang pinning ang buntot sa asno sa kaso ng AI. Marahil kung ang AI balang araw ay maging masigla, maaari mong subukang gawin ito. Hanggang sa panahong iyon, ito ay medyo abot-kaya (dagdag pa, anong uri ng mga parusa o epekto ang sasailalim sa AI, tingnan ang aking pagsusuri sa ang link dito at ang link dito, Halimbawa).

Kung ang AI ay hindi ang may pananagutan na pinaghihinalaan, maaari nating natural na sabihin na anumang tao o tao ang gumawa ng AI ay dapat managot. Magagawa mo ba ito kung ang AI ay nagpapatakbo lamang ng isang autonomous system at ang ilang mga tao ay dumating na kasama ito sa weaponization? Hinahabol mo ba ang mga developer ng AI? O ang mga nag-deploy ng AI? O sadyang artista lang ang armas?

Nagtitiwala ako na nakuha mo ang ideya na nahawakan ko lang ang dulo ng malaking bato ng yelo sa aking masiglang talakayan.

Sa ngayon, sige at tapusin na natin ang diskursong ito. Maaaring naaalala mo na si John Lyly ay nasa Euphues: Ang Anatomy Ng Wit noong 1578 hindi malilimutang sinabi na ang lahat ay patas sa pag-ibig at digmaan.

Nasa isip ba niya ang paglitaw ng mga autonomous na sistema ng armas at ang pagdating din ng mga autonomous na sistema na naka-armas?

Tiyak na kailangan nating ilagay ito sa itaas ng ating isipan, kaagad.

Pinagmulan: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- weapons-systems-and-the-exploitation-of-ai-driven-autonomous-systems-na-devilishly-weaponized/