AI Ethics At AI Law na Nagtatanong Tungkol sa Bagong Pledge na Iyan Sa Pagsasayaw ng Mga Robot Maker na Sinasabing Iiwasan nila ang AI Weaponization

Maaaring nakita mo noong nakaraang linggo sa mga balita o napansin sa social media ang inihayag na pangako ng ilang gumagawa ng robot tungkol sa kanilang inaakala na layunin na maiwasan ang pag-armas ng AI ng mga pangkalahatang layunin na robot. Ituturo ko sa iyo ang mga detalye sa isang sandali, kaya huwag mag-alala kung hindi ka pa nababahala sa bagay na iyon.

Ang reaksyon sa proklamasyong ito ay mabilis at, marahil tulad ng dati sa ating polarized na lipunan, ay parehong papuri at kung minsan ay mapanukso na mapanuri o talagang may pag-aalinlangan.

Ito ay isang kuwento ng dalawang mundo.

Sa isang mundo, sinasabi ng ilan na ito talaga ang kailangan natin may pananagutan Ang mga developer ng AI robot ay magdedeklara.

Salamat sa pagiging nasa kanang bahagi ng isang isyu na unti-unting nagiging mas nakikita at mas nakakabahala. Nakakabahala ang mga cute na sumasayaw na robot na iyon dahil napakadaling i-rejigger ang mga ito upang magdala ng mga armas at magamit sa pinakamasamang paraan (maaari mong suriin ito sa iyong sarili sa pamamagitan ng pagpunta sa social media at maraming mga video na nagpapakita ng mga sumasayaw na robot na armado ng mga machine gun at iba pang mga armas).

Ang kabilang panig ng coin na ito ay nagsasabi na ang tinatawag na pledge ay walang iba kundi isang marketing o public relations ploy (bilang side note, mayroon bang pamilyar sa pagkakaiba sa pagitan ng isang pangako at isang donasyon?). Gayon pa man, hinihikayat ng mga nagdududa na ito ay walang pigil na virtue signaling sa konteksto ng pagsasayaw ng mga robot. Nakikita mo, ang pagdadalamhati sa katotohanan na ang mga robot na may layuning pangkalahatan ay maaaring gawing armas ay tiyak na isang kapaki-pakinabang at taimtim na hinahangad na pagsasaalang-alang, kahit na ang pag-aangkin lamang na hindi gagawin ito ng isang gumagawa ay malamang na isang walang laman na pangako, iginiit ng ilan.

Sa kabuuan, ang buong usapin ay nagdudulot ng napakaraming hanay ng mga pagsasaalang-alang sa AI Ethics at AI Law. Maingat naming i-unpack ang paksa at tingnan kung paano ito double-whammy ng isang etikal at legal na AI morass. Para sa aking patuloy at malawak na saklaw ng AI Ethics at AI Law, tingnan ang link dito at ang link dito, Lamang upang pangalanan ang ilang.

Ire-refer ko rin sa buong talakayang ito ang aking mga naunang pagsusuri sa mga panganib ng AI weaponization, gaya ng aking malalim na pagtatasa sa ang link dito. Baka gusto mong tingnan ang diskursong iyon para sa karagdagang mga detalye sa likod ng mga eksena.

Ang Bukas na Liham na Nagbubukas ng Lata Ng Bulate

Simulan natin ang pagsusuring ito sa pamamagitan ng paggawa ng maingat na hakbang-hakbang na pag-explore ng Open Letter na kamakailang nai-publish ng anim na medyo kilalang advanced na robot maker, katulad ng Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics, at Unitree. Sa pangkalahatan, sa palagay ko ay nakita mo na ang mga robot ng Boston Dynamics, gaya ng mga umiikot na nakadapa. Para silang parang aso at natutuwa kaming makita silang tumatakbo.

Gaya ng nauna at paulit-ulit kong binalaan, ang paggamit ng mga robot na "pagsasayaw" bilang isang paraan ng pagkumbinsi sa pangkalahatang publiko na ang mga robot na ito ay cutesy at kaibig-ibig ay nakalulungkot na nakaliligaw at nababaluktot sa masaganang mga pitfalls ng antropomorphizing sa kanila. Nagsisimula kaming mag-isip sa mga tumigas na piraso ng metal at plastik na ito na parang katumbas ng isang asong matapat na cuddly. Ang aming pagpayag na tanggapin ang mga robot na ito ay nakabatay sa isang maling pakiramdam ng kaligtasan at katiyakan. Oo naman, kailangan mong kumita at ang posibilidad na gawin ito ay pinahuhusay sa pamamagitan ng pagpaparada sa paligid ng mga sumasayaw na robot, ngunit ito ay nakalulungkot na inaalis o tila itinatago ang tunay na katotohanan na ang mga robot na ito ay mga robot at na ang AI na kumokontrol sa mga robot ay maaaring malikha nang mali o magkagulo.

Isaalang-alang ang mga epektong ito ng AI (kinuha mula sa aking artikulo sa AI weaponization, na matatagpuan sa ang link dito):

  • Maaaring makatagpo ang AI ng error na nagiging sanhi ng pagkaligaw nito
  • Maaaring ma-overwhelm ang AI at mag-lock up nang hindi tumutugon
  • Maaaring naglalaman ang AI ng mga bug ng developer na nagdudulot ng maling gawi
  • Maaaring masira ang AI sa implanted evildoer virus
  • Maaaring sakupin ng mga cyberhacker ang AI sa real-time
  • Maaaring ituring na hindi mahulaan ang AI dahil sa mga kumplikado
  • Ang AI ay maaaring gumawa ng "maling" desisyon (medyo) sa computation
  • At iba pa

Iyon ay mga punto tungkol sa AI na nasa uri na tunay na ginawa sa pagsisimula upang gawin ang tamang bagay.

Sa itaas ng mga pagsasaalang-alang na iyon, kailangan mong isama ang mga AI system na ginawa mula sa umpisa upang makagawa ng masasamang bagay. Maaari kang magkaroon ng AI na ginawa para sa mga kapaki-pakinabang na layunin, madalas na tinutukoy bilang AI For Good. Maaari ka ring magkaroon ng AI na sadyang ginawa para sa masamang layunin, na kilala bilang AI Para sa Masama. Higit pa rito, maaari kang magkaroon AI For Good na corrupted o rejiggered sa pagiging AI Para sa Masama.

Siyanga pala, wala sa mga ito ang may kinalaman sa pagiging sentient ng AI, na binanggit ko dahil ang ilan ay patuloy na nagbubulalas na ang AI ngayon ay maaaring sentient o nasa gilid ng pagiging sentient. Hindi kaya. Inihiwalay ko ang mga alamat na iyon sa aking pagsusuri sa ang link dito.

Siguraduhin natin na tayo ay nasa parehong pahina tungkol sa likas na katangian ng AI ngayon.

Walang anumang AI ngayon na nakakaramdam. Wala kaming ganito. Hindi namin alam kung magiging posible ang sentient AI. Walang sinuman ang maaaring mahuhulaan kung makakamit natin ang sentient AI, o kung ang sentient AI ay kahit papaano ay miraculously kusang lalabas sa isang anyo ng computational cognitive supernova (karaniwang tinutukoy bilang ang singularity, tingnan ang aking coverage sa ang link dito).

Ang uri ng AI na pinagtutuunan ko ng pansin ay binubuo ng non-sentient AI na mayroon tayo ngayon. Kung gusto nating mag-isip-isip tungkol sa nararamdamang AI, ang talakayang ito ay maaaring mapunta sa ibang direksyon. Ang isang pakiramdam na AI ay dapat na may kalidad ng tao. Kailangan mong isaalang-alang na ang sentient AI ay ang cognitive equivalent ng isang tao. Higit pa rito, dahil ang ilan ay nag-iisip na maaari tayong magkaroon ng super-intelligent na AI, maiisip na ang naturang AI ay maaaring maging mas matalino kaysa sa mga tao (para sa aking paggalugad ng super-intelligent na AI bilang isang posibilidad, tingnan ang ang coverage dito).

Lubos kong iminumungkahi na itago natin ang mga bagay-bagay at isaalang-alang ang computational non-sentient AI ngayon.

Napagtanto na ang AI ngayon ay hindi nagagawang "mag-isip" sa anumang paraan na katumbas ng pag-iisip ng tao. Kapag nakipag-ugnayan ka kay Alexa o Siri, ang mga kakayahan sa pakikipag-usap ay maaaring mukhang katulad ng mga kapasidad ng tao, ngunit ang katotohanan ay ito ay computational at walang katalinuhan ng tao. Ang pinakabagong panahon ng AI ay gumawa ng malawakang paggamit ng Machine Learning (ML) at Deep Learning (DL), na gumagamit ng computational pattern matching. Ito ay humantong sa mga AI system na may hitsura ng mga proclivities na tulad ng tao. Samantala, walang anumang AI ngayon na may kamukha ng sentido komun at wala ring anumang nakakaisip na pagtataka ng matatag na pag-iisip ng tao.

Maging maingat sa pag-antropomorphize ng AI ngayon.

Ang ML/DL ay isang anyo ng computational pattern matching. Ang karaniwang diskarte ay ang mag-ipon ka ng data tungkol sa isang gawain sa paggawa ng desisyon. Ipapakain mo ang data sa mga modelo ng ML/DL computer. Ang mga modelong iyon ay naghahangad na makahanap ng mga pattern ng matematika. Matapos mahanap ang gayong mga pattern, kung ito ay natagpuan, gagamitin ng AI system ang mga pattern na iyon kapag nakatagpo ng bagong data. Sa pagtatanghal ng bagong data, ang mga pattern na batay sa "luma" o makasaysayang data ay inilapat upang mag-render ng kasalukuyang desisyon.

Sa tingin ko maaari mong hulaan kung saan ito patungo. Kung ang mga tao na gumagawa ng pattern sa mga desisyon ay nagsasama ng mga hindi kanais-nais na pagkiling, malamang na ang data ay nagpapakita nito sa banayad ngunit makabuluhang mga paraan. Ang Machine Learning o Deep Learning computational pattern matching ay susubukan lang na mathematically gayahin ang data nang naaayon. Walang pagkakahawig ng sentido komun o iba pang nakikitang aspeto ng AI-crafted modeling per se.

Higit pa rito, maaaring hindi napagtanto ng mga developer ng AI kung ano ang nangyayari. Ang arcane mathematics sa ML/DL ay maaaring magpahirap sa pag-iwas sa mga nakatagong bias na ngayon. Marapat mong asahan at asahan na ang mga developer ng AI ay susubok para sa mga potensyal na nakabaon na bias, kahit na ito ay mas nakakalito kaysa sa tila. Mayroong matatag na pagkakataon na kahit na may medyo malawak na pagsubok na magkakaroon pa rin ng mga bias na naka-embed sa loob ng pattern-matching na mga modelo ng ML/DL.

Medyo maaari mong gamitin ang sikat o kasumpa-sumpa na kasabihan ng garbage-in garbage-out. Ang bagay ay, ito ay mas katulad sa mga biases-in na insidiously makakuha infused bilang biases lumubog sa loob ng AI. Ang algorithm na paggawa ng desisyon (ADM) ng AI ay axiomatically nagiging puno ng hindi pagkakapantay-pantay.

Hindi maganda.

Ang lahat ng ito ay may kapansin-pansing makabuluhang mga implikasyon sa AI Ethics at nag-aalok ng isang madaling gamitin na window sa mga natutunang aral (kahit na bago mangyari ang lahat ng mga aralin) pagdating sa pagsubok na isabatas ang AI.

Bukod sa paggamit ng mga alituntunin sa AI Ethics sa pangkalahatan, may katumbas na tanong kung dapat ba tayong magkaroon ng mga batas upang pamahalaan ang iba't ibang paggamit ng AI. Ang mga bagong batas ay inilalagay sa paligid sa pederal, estado, at lokal na antas na may kinalaman sa hanay at kalikasan ng kung paano dapat gawin ang AI. Ang pagsisikap na bumalangkas at magpatibay ng mga naturang batas ay unti-unti. Ang AI Ethics ay nagsisilbing isang itinuturing na stopgap, sa pinakamababa, at halos tiyak na sa ilang antas ay direktang isasama sa mga bagong batas na iyon.

Magkaroon ng kamalayan na ang ilan ay matatag na nangangatuwiran na hindi namin kailangan ng mga bagong batas na sumasaklaw sa AI at na ang aming mga kasalukuyang batas ay sapat. Nagbabala sila na kung gagawin natin ang ilan sa mga batas na ito ng AI, papatayin natin ang ginintuang gansa sa pamamagitan ng pagpigil sa mga pagsulong sa AI na nagbibigay ng napakalaking pakinabang sa lipunan.

Sa mga naunang column, sinaklaw ko ang iba't ibang pambansa at internasyonal na pagsisikap na gumawa at magpatupad ng mga batas na kumokontrol sa AI, tingnan ang link dito, Halimbawa. Sinaklaw ko rin ang iba't ibang mga prinsipyo at alituntunin sa AI Ethics na natukoy at pinagtibay ng iba't ibang bansa, kasama na halimbawa ang pagsisikap ng United Nations tulad ng UNESCO set ng AI Ethics na pinagtibay ng halos 200 bansa, tingnan ang link dito.

Narito ang isang kapaki-pakinabang na listahan ng keystone ng pamantayan o mga katangian ng Ethical AI patungkol sa mga AI system na dati kong na-explore nang mabuti:

  • Aninaw
  • Katarungan at Pagkamakatarungan
  • Non-Maleficence
  • Pananagutan
  • Privacy
  • Pagkabenta
  • Kalayaan at Autonomy
  • Pagkatiwalaan
  • Pagpapanatili
  • Dignidad
  • Pagkakaisa

Ang mga alituntuning iyon sa AI Ethics ay taimtim na dapat na ginagamit ng mga developer ng AI, kasama ang mga namamahala sa mga pagsusumikap sa pagpapaunlad ng AI, at maging ang mga sa huli ay naglalagay at nagsasagawa ng pagpapanatili sa mga AI system.

Ang lahat ng stakeholder sa buong AI life cycle ng pag-unlad at paggamit ay isinasaalang-alang sa loob ng saklaw ng pagsunod sa mga itinatag na pamantayan ng Ethical AI. Ito ay isang mahalagang highlight dahil ang karaniwang pag-aakala ay ang "mga coder lamang" o ang mga nagprograma sa AI ay napapailalim sa pagsunod sa mga paniwala sa AI Ethics. Gaya ng naunang idiniin dito, kailangan ng isang nayon upang bumuo at maglagay ng AI, at kung saan ang buong nayon ay kailangang sanay at sumunod sa mga alituntunin ng AI Ethics.

Ngayong nakapaglatag na ako ng kapaki-pakinabang na pundasyon para makapasok sa Open Letter, handa na kaming sumabak.

Ang opisyal na pamagat ng paksa ng Bukas na Liham ay ito:

  • "Isang Bukas na Liham sa Industriya ng Robotics at sa ating mga Komunidad, Ang mga Pangkalahatang Layunin na Robot ay Hindi Dapat Sandatahan” (as per posted online).

Sa ngayon, napakahusay.

Ang pamagat ay halos parang ice cream at apple pie. Paano ito matutuwa ng sinuman bilang isang dating tawag upang maiwasan ang pag-armas ng AI robot?

Basahin upang makita.

Una, bilang kumpay para sa pagsasaalang-alang, narito ang opisyal na pambungad na talata ng Bukas na Liham:

  • “Kami ang ilan sa mga nangungunang kumpanya sa mundo na nakatuon sa pagpapakilala ng mga bagong henerasyon ng mga advanced na mobile robotics sa lipunan. Ang mga bagong henerasyon ng mga robot na ito ay mas madaling ma-access, mas madaling patakbuhin, mas autonomous, abot-kaya, at madaling ibagay kaysa sa mga nakaraang henerasyon, at may kakayahang mag-navigate sa mga lokasyong dating hindi naa-access sa mga teknolohiyang awtomatiko o malayuang kinokontrol. Naniniwala kami na ang mga advanced na mobile robot ay magbibigay ng malaking benepisyo sa lipunan bilang mga katrabaho sa industriya at mga kasama sa aming mga tahanan” (ayon sa nai-post online).

Ang maaraw na bahagi ng pagdating ng mga ganitong uri ng mga robot ay maaari nating asahan ang maraming magagandang benepisyo na lalabas. Walang duda tungkol dito. Maaaring mayroon kang robot sa iyong tahanan na kayang gawin ang mga aktibidad na tulad ng Jetson tulad ng paglilinis ng iyong bahay, paghuhugas ng mga pinggan, at iba pang mga gawain sa bahay. Magkakaroon tayo ng mga advanced na robot para magamit sa mga pabrika at pasilidad sa pagmamanupaktura. Ang mga robot ay posibleng gumapang o magmaniobra sa mga masikip na espasyo gaya ng kapag gumuho ang isang gusali at nakataya ang buhay ng tao upang mailigtas. At iba pa.

Bilang isang tabi, maaari kang makahanap ng interes sa aking kamakailang mata-kritikal na saklaw ng Tesla AI Day, kung saan ang ilang uri ng mga robot na naglalakad ay ipinakita ni Elon Musk bilang ang hinaharap para sa Tesla at lipunan, tingnan ang link dito.

Bumalik sa usapin sa kamay. Kapag seryosong tinatalakay ang mga dancing robot o walking robot, kailangan nating isaalang-alang ang mga tradeoff o ang kabuuang ROI (Return on Investment) ng paggamit na ito ng AI. Hindi natin dapat pahintulutan ang ating sarili na maging labis na mahilig sa mga benepisyo kapag mayroon ding mga gastos na dapat isaalang-alang.

Ang isang makintab na bagong laruan ay maaaring magkaroon ng matalim na mga gilid.

Ang lahat ng ito ay nag-uudyok ng isang mahalagang ngunit medyo tahimik na punto na bahagi ng dahilan kung bakit ang isyu ng AI weaponization ay lumitaw ngayon ay dahil sa pagsulong ng AI patungo sa autonomous na aktibidad. Karaniwan naming inaasahan na ang mga armas ay karaniwang ginagamit ng tao. Ang isang tao ay gumagawa ng desisyon kung magpapaputok o sasabak sa armas. Maari nating panagutin ang taong iyon sa kanilang mga aksyon.

Ang AI na ginawa upang gumana nang nakapag-iisa o maaaring dayain sa paggawa nito ay tila mag-aalis ng tao mula sa loop. Ang AI ay pagkatapos ay algorithmically paggawa ng computational na mga desisyon na maaaring humantong sa pagpatay o pinsala sa mga tao. Bukod sa mga halatang alalahanin tungkol sa kawalan ng kontrol sa AI, mayroon ka ring mga pagkabalisa na maaaring magkaroon kami ng mahirap na oras sa paglalagay ng responsibilidad sa mga aksyon ng AI. Wala tayong tao na halatang pasimuno natin.

Napagtanto ko na ang ilan ay naniniwala na dapat nating simple at direktang panagutin ang AI para sa mga aksyon nito, na para bang ang AI ay nakakuha ng sentience o kung hindi man ay nabigyan ng legal na katauhan (tingnan ang aking saklaw sa mga debate tungkol sa AI na nakakakuha ng legal na katauhan sa ang link dito). Hindi iyon gagana sa ngayon. Kakailanganin nating i-trace ang AI sa mga tao na gumawa nito o naglagay nito. Walang alinlangan na susubukan nilang ligal na umiwas sa responsibilidad sa pamamagitan ng pagsisikap na ipaglaban na ang AI ay lumampas sa kanilang naisip. Ito ay isang lumalagong pagtatalo na kailangan nating harapin (tingnan ang aking mga isinulat sa AI Law para sa mga insight sa mga pinagtatalunang isyu na kasangkot).

Ang United Nations (UN) sa pamamagitan ng Convention on Certain Conventional Weapons (CCW) sa Geneva ay nagtatag ng labing-isang non-binding Guiding Principles on Lethal Autonomous Weapons, ayon sa opisyal na ulat na nai-post online (na sumasaklaw sa mga sanggunian sa nauugnay na International Humanitarian Law o IHL provisos) , kabilang ang:

(a) Ang internasyunal na makataong batas ay patuloy na ganap na nalalapat sa lahat ng sistema ng armas, kabilang ang potensyal na pag-unlad at paggamit ng mga nakamamatay na autonomous na sistema ng armas;

(b) Ang pananagutan ng tao para sa mga desisyon sa paggamit ng mga sistema ng armas ay dapat panatilihin dahil ang pananagutan ay hindi mailipat sa mga makina. Dapat itong isaalang-alang sa buong ikot ng buhay ng sistema ng armas;

(c) Ang pakikipag-ugnayan ng tao-machine, na maaaring magkaroon ng iba't ibang anyo at ipatupad sa iba't ibang yugto ng ikot ng buhay ng isang armas, ay dapat tiyakin na ang potensyal na paggamit ng mga sistema ng armas batay sa mga umuusbong na teknolohiya sa lugar ng mga nakamamatay na autonomous na sistema ng armas ay nasa pagsunod sa naaangkop na internasyonal na batas, sa partikular na IHL. Sa pagtukoy sa kalidad at lawak ng interaksyon ng tao-machine, isang hanay ng mga salik ang dapat isaalang-alang kabilang ang konteksto ng pagpapatakbo, at ang mga katangian at kakayahan ng sistema ng armas sa kabuuan;

(d) Ang pananagutan para sa pagbuo, pag-deploy at paggamit ng anumang umuusbong na sistema ng armas sa balangkas ng CCW ay dapat tiyakin alinsunod sa naaangkop na internasyonal na batas, kabilang ang sa pamamagitan ng pagpapatakbo ng mga naturang sistema sa loob ng isang responsableng hanay ng utos at kontrol ng tao;

(e) Alinsunod sa mga obligasyon ng Estado sa ilalim ng internasyunal na batas, sa pag-aaral, pagpapaunlad, pagkuha, o pagpapatibay ng isang bagong sandata, paraan o paraan ng pakikidigma, ang pagpapasiya ay dapat gawin kung ang pagtatrabaho nito ay, sa ilan o lahat ng pagkakataon, ay magiging ipinagbabawal ng internasyonal na batas;

(f) Kapag bumubuo o nakakakuha ng mga bagong sistema ng armas batay sa mga umuusbong na teknolohiya sa lugar ng mga nakamamatay na autonomous na sistema ng armas, pisikal na seguridad, naaangkop na mga hindi pisikal na pag-iingat (kabilang ang cyber-security laban sa pag-hack o data spoofing), ang panganib ng pagkuha ng mga teroristang grupo at ang panganib ng paglaganap ay dapat isaalang-alang;

(g) Ang mga pagtatasa ng panganib at mga hakbang sa pagpapagaan ay dapat na bahagi ng disenyo, pagbuo, pagsubok at cycle ng pag-deploy ng mga umuusbong na teknolohiya sa anumang mga sistema ng armas;

(h) Dapat isaalang-alang ang paggamit ng mga umuusbong na teknolohiya sa larangan ng mga nakamamatay na autonomous na sistema ng armas sa pagtataguyod ng pagsunod sa IHL at iba pang naaangkop na internasyonal na legal na obligasyon;

(i) Sa paggawa ng mga potensyal na hakbang sa patakaran, ang mga umuusbong na teknolohiya sa lugar ng mga nakamamatay na autonomous na sistema ng mga armas ay hindi dapat gawing antropomorphize;

(j) Ang mga talakayan at anumang mga potensyal na hakbang sa patakaran na ginawa sa loob ng konteksto ng CCW ay hindi dapat makahadlang sa pag-unlad o pag-access sa mapayapang paggamit ng mga intelligent na autonomous na teknolohiya;

(k) Ang CCW ay nag-aalok ng naaangkop na balangkas para sa pagharap sa isyu ng mga umuusbong na teknolohiya sa larangan ng mga nakamamatay na autonomous na sistema ng armas sa loob ng konteksto ng mga layunin at layunin ng Convention, na naglalayong magkaroon ng balanse sa pagitan ng pangangailangang militar at makataong pagsasaalang-alang.

Ang mga ito at iba pang iba't ibang mga batas ng digmaan at mga batas ng armadong tunggalian, o IHL (International Humanitarian Laws) ay nagsisilbing isang mahalaga at maaasahang gabay sa pagsasaalang-alang kung ano ang maaari nating subukang gawin tungkol sa pagdating ng mga autonomous na sistema na ginagamitan ng armas, maging sa pamamagitan ng keystone disenyo o sa pamamagitan ng after-the-fact na pamamaraan.

Sinasabi ng ilan na dapat nating tahasan na ipagbawal ang mga autonomous na sistema ng AI na magagamit sa armas. Iyan ay tama, ang mundo ay dapat na humina at mahigpit na hilingin na ang AI autonomous system ay hindi kailanman gagawing armas. Isang kabuuang pagbabawal ang dapat ipataw. Katapusan ng kwento. Full stop, tuldok.

Buweno, taos-puso nating hilingin na mahigpit at masunuring sundin ang pagbabawal sa nakamamatay na mga sistemang nagsasarili. Ang problema ay ang maraming wiggle room ay tiyak na palihim na matatagpuan sa loob ng alinman sa mga taos-pusong pagbabawal. Sabi nga nila, rules are meant to be broken. Maaari kang tumaya na kung saan ang mga bagay ay maluwag, ang riffraff ay maglalabas ng mga puwang at susubukan na mag-wink-wink sa kanilang pagsunod sa mga patakaran.

Narito ang ilang potensyal na butas na dapat isaalang-alang:

  • Mga Pag-aangkin ng Non-Lethal. Gumawa ng hindi nakamamatay na autonomous na mga sistema ng armas (tila okay dahil ito ay nasa labas ng hangganan ng pagbabawal), na maaari mong baguhin sa isang barya tungo sa pagiging nakamamatay (malalampas ka lang sa pagbabawal sa huling minuto).
  • Mga Claim ng Autonomous System Lamang. Panindigan ang pagbabawal sa pamamagitan ng hindi paggawa ng mga nakamamatay na autonomous system, samantala, ay gumagawa ng mas maraming pag-unlad sa pagbuo ng pang-araw-araw na mga autonomous system na hindi pa (pa) weaponized ngunit na maaari mong sa isang dime retrofit sa pagiging weaponized.
  • Mga Claim ng Hindi Pinagsama Bilang Isa. Gumagawa ng mga autonomous system na hindi talaga na-armas, at pagdating ng panahon, piggyback weaponization na maaari mong subukang maigiit na pagtalunan na sila ay dalawang magkahiwalay na elemento at samakatuwid ay ipagtanggol na hindi sila kabilang sa rubric ng isang all-in-one. autonomous weapon system o ang pinsan nito.
  • Sinasabing Hindi Ito Nagsasarili. Gumawa ng isang sistema ng armas na tila wala sa mga autonomous na kapasidad. Mag-iwan ng puwang sa ipinapalagay na hindi autonomous na sistemang ito para sa pag-drop in ng autonomy na nakabatay sa AI. Kung kinakailangan, isaksak ang awtonomiya at handa ka nang gumulong (hanggang noon, tila hindi mo nilalabag ang pagbabawal).
  • iba

Maraming iba pang ipinahayag na kahirapan sa pagsisikap na tahasan na ipagbawal ang mga nakamamatay na autonomous na sistema ng armas. Sasaklawin ko pa ang ilan sa kanila.

Ang ilang mga pantas ay nangangatuwiran na ang pagbabawal ay hindi partikular na kapaki-pakinabang at sa halip ay dapat mayroong mga probisyon sa regulasyon. Ang ideya ay ang mga kagamitang ito ay papayagan ngunit mahigpit na binabantayan. Inilatag ang isang litanya ng mga legal na paggamit, kasama ng mga legal na paraan ng pag-target, mga legal na uri ng mga kakayahan, proporsyonalidad ayon sa batas, at mga katulad nito.

Sa kanilang pananaw, ang isang direktang pagbabawal ay tulad ng paglalagay ng iyong ulo sa buhangin at pagpapanggap na ang elepante sa silid ay wala. Bagama't ang pagtatalo na ito ay kumukulo ng dugo ng mga sumasalungat sa argumento na sa pamamagitan ng pagpapatibay ng pagbabawal ay nagagawa mong kapansin-pansing bawasan ang tuksong ituloy ang mga ganitong uri ng sistema. Oo naman, ang ilan ay ipagmamalaki ang pagbabawal, ngunit hindi bababa sa inaasahan na karamihan ay hindi. Pagkatapos ay maaari mong ituon ang iyong pansin sa mga nagpapahayag at hindi na kailangang hatiin ang iyong pansin sa lahat.

Paikot-ikot ang mga debateng ito.

Ang isa pang madalas na binabanggit na alalahanin ay na kahit na ang mabuti ay sumunod sa pagbabawal, ang masama ay hindi. Inilalagay nito ang mabuti sa isang pangit na pustura. Ang masama ay magkakaroon ng mga ganitong uri ng weaponized autonomous system at ang mabuti ay hindi. Kapag nabunyag na ang mga bagay na mayroon ang masama, huli na ang lahat para maabutan ng mabuti. Sa madaling salita, ang tanging matalinong bagay na dapat gawin ay maghanda upang labanan ang apoy gamit ang apoy.

Mayroon ding klasikong pagtatalo sa pagpigil. Kung pipiliin ng mahusay na gumawa ng mga weaponized na autonomous system, magagamit ito upang hadlangan ang masamang hangarin na pumasok sa isang tunggalian. Alinman sa mabubuti ay magiging mas mahusay na armado at sa gayon ay maiiwasan ang masama, o ang mabuti ay magiging handa kapag ang masama ay malamang na magbunyag na sila ay palihim na gumagawa ng mga sistemang iyon sa lahat ng panahon.

Ang isang kontra sa mga counter na ito ay na sa pamamagitan ng paggawa ng weaponized autonomous system, ikaw ay nagsasagawa ng isang arm race. Ang kabilang panig ay magsisikap na magkaroon ng pareho. Kahit na hindi na nila kayang lumikha muli ng mga ganitong sistema sa teknolohiya, magagawa na nilang nakawin ang mga plano ng mga "mabubuti", i-reverse engineer ang high-tech na lakas ng loob, o gayahin ang anumang tila nakikita nilang subok at totoo. paraan para magawa ang trabaho.

Ah, ang sagot ng ilan, ang lahat ng ito ay maaaring humantong sa isang pagbawas sa mga salungatan sa pamamagitan ng isang pagkakahawig ng isa't isa. Kung alam ng side A na ang side B ay may mga nakamamatay na autonomous system na mga armas, at alam ng side B na nasa side A ang mga ito, maaaring maupo sila ng mahigpit at hindi sila magkasuntukan. Mayroon itong kakaibang aura ng mutually assured destruction (MAD) vibes.

At iba pa.

Tinitingnang Mahigpit ang Ikalawang Talata

Marami na tayong natalakay dito at hanggang ngayon ay isinasaalang-alang ang una o pambungad na talata ng Bukas na Liham (may kabuuang apat na talata).

Oras na upang tingnan ang pangalawang talata, narito ka:

  • "Tulad ng anumang bagong teknolohiya na nag-aalok ng mga bagong kakayahan, ang paglitaw ng mga advanced na mobile robot ay nag-aalok ng posibilidad ng maling paggamit. Maaaring gamitin ng mga hindi mapagkakatiwalaang tao ang mga ito upang salakayin ang mga karapatang sibil o upang banta, saktan, o takutin ang iba. Ang isang lugar ng partikular na pag-aalala ay ang weaponization. Naniniwala kami na ang pagdaragdag ng mga armas sa mga robot na malayuan o awtonomiya na pinapatakbo, malawak na magagamit sa publiko, at may kakayahang mag-navigate sa mga dating hindi naa-access na lokasyon kung saan nakatira at nagtatrabaho ang mga tao, ay nagpapataas ng mga bagong panganib ng pinsala at seryosong mga isyu sa etika. Ang mga gamit na sandata ng mga bagong robot na ito ay makakasira din sa tiwala ng publiko sa teknolohiya sa mga paraan na nakakasira sa napakalaking benepisyong idudulot nito sa lipunan. Para sa mga kadahilanang ito, hindi namin sinusuportahan ang pag-armas ng aming advanced-mobility general-purpose robot. Para sa amin na nagsalita tungkol sa isyung ito sa nakaraan, at sa mga nakipag-ugnayan sa unang pagkakataon, nakadarama kami ngayon ng panibagong pagkaapurahan dahil sa tumataas na pag-aalala ng publiko nitong mga nakaraang buwan na dulot ng kakaunting bilang ng mga tao na malinaw na nagpahayag ng kanilang pansamantala pagsisikap na gawing armas ang mga robot na magagamit sa komersyo” (ayon sa naka-post online).

Sa pagbabasa ng pangalawang talata na iyon, inaasahan kong makikita mo kung paano nauuna ang aking naunang diskurso dito sa AI weaponization.

Suriin natin ang ilang karagdagang mga punto.

Ang isang medyo pagkabalisa tungkol sa isang partikular na aspeto ng pananalita na naging dahilan ng ilan ay ang salaysay ay tila binibigyang-diin na ang "mga taong hindi mapagkakatiwalaan" ay maaaring maling gamitin ang mga AI robot na ito. Oo, sa katunayan, maaaring masasamang tao o manggagawa ng kasamaan ang nagdudulot ng mga karumal-dumal na gawain na "maling gamitin" ang mga robot ng AI.

Kasabay nito, tulad ng itinuro sa simula ng talakayang ito, kailangan din nating linawin na ang AI mismo ay maaaring magkamali, posibleng dahil sa mga naka-embed na bug o mga error at iba pang mga komplikasyon. Ang ipinahayag na pag-aalala ay ang pagbibigay-diin lamang sa mga pagkakataon ng mga taong hindi mapagkakatiwalaan ay na tila binabalewala ang iba pang masamang posibilidad. Bagama't ayaw tanggapin ng karamihan sa mga kumpanya at vendor ng AI, napakaraming isyu sa AI system na maaaring makabawas sa kaligtasan at pagiging maaasahan ng mga autonomous system. Para sa aking saklaw ng kaligtasan ng AI at ang pangangailangan para sa mahigpit at mapapatunayang mga pananggalang, tingnan ang link dito, Halimbawa.

Ang isa pang kapansin-pansing punto na lumabas sa mga nagsuri sa Open Letter ay nagsasangkot ng kasamang pahayag na maaaring humantong sa pagbawas ng tiwala ng publiko na nauugnay sa mga robot ng AI.

Sa isang banda, ito ay isang wastong assertion. Kung ang mga AI robot ay ginagamit upang gumawa ng masamang pag-bid, maaari kang tumaya na ang publiko ay mapapasingaw. Kapag nabalisa ang publiko, maaari kang tumaya na ang mga mambabatas ay sasabak at magsusumikap na magpatupad ng mga batas na pumipigil sa mga AI robot at AI robotic maker. Ito naman ay maaaring mapilayan ang industriya ng AI robotics kung ang mga batas ay sumasaklaw sa lahat at isara ang mga pagsisikap na kinasasangkutan ng AI robotic na mga benepisyo. Sa isang kahulugan, ang sanggol ay maaaring itapon sa tubig na paliguan (isang lumang ekspresyon, marahil ay karapat-dapat na iretiro).

Ang malinaw na tanong na ibinangon din ay kung ang pahayag na ito tungkol sa pag-iwas sa pagbawas sa tiwala ng publiko para sa mga robot ng AI ay isang medyo self-serving kredo o kung ito ay para sa ikabubuti nating lahat (maaari ba itong pareho?).

Nagpasya ka.

Dumating na tayo ngayon sa partikular na karneng bahagi ng Bukas na Liham:

  • "Nangangako kami na hindi namin gagamitin ang aming advanced-mobility general-purpose robot o ang software na binuo namin na nagbibigay-daan sa mga advanced na robotics at hindi namin susuportahan ang iba na gawin ito. Kapag posible, maingat naming susuriin ang mga nilalayon na aplikasyon ng aming mga customer upang maiwasan ang potensyal na pag-armas. Nangangako rin kami na galugarin ang pagbuo ng mga teknolohikal na tampok na maaaring magaan o mabawasan ang mga panganib na ito. Upang maging malinaw, hindi kami kumukuha ng isyu sa mga umiiral na teknolohiya na ginagamit ng mga bansa at ng kanilang mga ahensya ng gobyerno upang ipagtanggol ang kanilang sarili at itaguyod ang kanilang mga batas” (tulad ng nai-post online).

Maaari naming i-unpack ito.

Umupo at ihanda ang iyong sarili nang naaayon.

Handa ka na ba para sa ilang maapoy na polariseysyon?

Sa kanais-nais na panig, ang ilan ay malakas na nagbabadya na ang mga gumagawa ng AI robot na ito ay gagawa ng ganoong pangako. Mukhang ang mga gumagawa ng robot na ito ay lubos na magsisikap na huwag gamitin ang kanilang mga robot na "advanced-mobility general-purpose". Bilang karagdagan, sinasabi ng Open Letter na hindi nila susuportahan ang iba na gumagawa nito.

Ang mga kritiko ay nagtataka kung mayroong ilang matalinong paggawa ng mga salita na nangyayari.

Halimbawa, saan nagsisimula at nagtatapos ang "advanced-mobility"? Kung ang isang gumagawa ng robot ay gumagawa ng a simple-mobility AI robot sa halip na isang advanced (na isang hindi natukoy na piraso ng techie jargon), hindi ba iyon isasama sa saklaw ng kung ano ang hindi maging armas? Kaya, tila, okay lang na gumamit ng mga simpleng AI robot, hangga't hindi sila tinatawag advanced.

Ang parehong napupunta para sa pagbigkas ng mga pangkalahatang layunin na robot. Kung ang isang AI robot ay partikular na ginawa para sa pag-armas at samakatuwid ay hindi natin sasabihing a Pangkalahatang layunin robot, nagiging viable bang pagbubukod iyon sa saklaw?

Maaari kang mag-quibble sa mga quibbles na ito at taimtim na magtaltalan na ito ay isang Bukas na Liham lamang at hindi isang limampung pahinang legal na dokumento na binabanggit ang bawat sulok at cranny.

Dinadala tayo nito sa tila mas macro-level na qualm na ipinahayag ng ilan. Sa esensya, ano ang ibig sabihin ng "pangako"?

May nagtatanong, nasaan ang baka?

Ang isang kumpanya na gumagawa ng isang pangako tulad nito ay tila ginagawa ito nang walang anumang tunay na stake sa laro. Kung ang nangungunang brass ng alinmang firm na nag-sign up para sa pledge na ito ay nagpasya na hindi na igalang ang pledge, ano ang mangyayari sa firm na iyon? Makakakuha ba ang mga executive ng summarily canned? Magsasara ba ang kumpanya at labis na humingi ng paumanhin para sa paglabag sa pangako? At iba pa.

Sa abot ng mahihinuha, walang partikular na parusa o parusa para sa anumang paglabag sa pangako.

Maaari kang magtaltalan na may posibilidad ng pinsala sa reputasyon. Ang isang pledging firm ay maaaring ma-dinged sa marketplace dahil sa paggawa ng isang pangako na hindi na nito sinusunod. Siyempre, ipinapalagay din nito na matatandaan ng mga tao na ginawa ang pangako. Ipinapalagay din nito na ang paglabag sa pledge ay matukoy kahit papaano (mukhang hindi malamang na sasabihin ng isang kompanya ang lahat kung gagawin ito). Ang lumabag sa pangako ay kailangang tawagan ngunit ang naturang isyu ay maaaring maging ingay lamang sa patuloy na tsunami ng mga balita tungkol sa mga gumagawa ng AI robotics.

Isaalang-alang ang isa pang anggulo na lumitaw.

Ang isang pledging firm ay binili ng ilang mas malaking kumpanya. Pinipili ng mas malaking kumpanya na simulan ang paggawa ng advanced-mobility general-purpose na mga robot sa mga AI weaponized na bersyon.

Ito ba ay isang paglabag sa pledge?

Maaaring igiit ng mas malaking kumpanya na hindi ito isang paglabag dahil hindi sila (ang mas malaking kumpanya) ay gumawa ng pangako. Samantala, ang hindi nakapipinsalang mga robot ng AI na pinagsama-sama at binuo ng mas maliit na kumpanya, na ginagawa ito nang may tila pinaka-altruistic na mga intensyon, ay halos magdamag na nabago upang maging armas.

Uri ng undermines ang pangako, kahit na maaari mong sabihin na ang mas maliit na kumpanya ay hindi alam na ito ay mangyayari balang araw. Sila ay taimtim sa kanilang pagnanasa. Wala sa kanilang kontrol kung ano ang napiling gawin ng mas malaking kumpanya sa pagbili.

Ang ilan ay nagtatanong din kung mayroong anumang legal na pananagutan dito.

Ang isang pledging firm ay nagpasiya ng ilang buwan mula ngayon na hindi nito tutuparin ang pledge. Nagkaroon sila ng pagbabago ng puso. Maaari bang idemanda ang kompanya dahil sa pag-abandona sa pangakong ginawa nito? Sino ang maghahabol? Ano ang magiging batayan ng demanda? Samu't saring legal na isyu ang lumitaw. Gaya ng sinasabi nila, maaari kang magdemanda ng halos kahit sino, ngunit kung mananaig ka ay ibang bagay sa kabuuan.

Isipin ito ng ibang paraan. Ang isang pledging firm ay nakakakuha ng pagkakataon na gumawa ng isang malaking deal upang ibenta ang isang buong grupo ng mga advanced-mobility general-purpose na robot nito sa isang napakalaking kumpanya na handang magbayad sa pamamagitan ng ilong upang makuha ang mga robot. Ito ay isa sa mga minsan-sa-isang-buhay na zillion-dollar na deal sa pagbili.

Ano ang dapat gawin ng kumpanya ng AI robotics?

Kung ang AI robotics pledging firm ay ibinebenta sa publiko, halos tiyak na nilalayon nilang gawin ang pagbebenta (gayon din ang masasabi sa isang pribadong hawak na kumpanya, kahit na hindi ganoon). Isipin na ang pledging firm ay nag-aalala na ang mamimili ay maaaring subukang gawing armas ang mga robot, kahit na sabihin nating walang ganoong talakayan sa talahanayan. Usap-usapan lang na maaaring gawin ito ng bumibili.

Alinsunod dito, ang pledging firm ay naglalagay sa kanilang paglilisensya na ang mga robot ay hindi dapat gawing armas. Ang mamimili ay tumatangkilik sa wikang ito at lumayo sa pagbili.

Magkano ang tubo ng ipinangakong AI robotics firm na kakaalis lang?

Mayroon bang punto kung saan ang in-hand na kita ay mas malaki kaysa sa pagsasama ng kinakailangan sa paghihigpit sa paglilisensya (o, marahil ay legal na binibigyang-diin ang paghihigpit upang payagan ang pag-wiggle room at magawa pa rin ang deal)? Sa tingin ko ay makikita mo ang kaguluhang kasangkot. Ang tonelada ng mga ganitong senaryo ay madaling maisip. Ang tanong ay kung ang pangakong ito ay magkakaroon ng ngipin. Kung gayon, anong uri ng ngipin?

Sa madaling salita, tulad ng nabanggit sa simula ng talakayang ito, ang ilan ay pinaniniwalaan na ang ganitong uri ng pangako ay ginagawa, habang ang iba ay kumukuha ng dimmer view kung ang pangako ay hahawak ng tubig.

Mag move on na kami.

Pagkuha ng Pangako

Ang ikaapat at huling talata ng Bukas na Liham ay nagsasabi nito:

  • "Naiintindihan namin na ang aming pangako lamang ay hindi sapat upang ganap na matugunan ang mga panganib na ito, at samakatuwid ay nananawagan kami sa mga gumagawa ng patakaran na makipagtulungan sa amin upang isulong ang ligtas na paggamit ng mga robot na ito at upang ipagbawal ang kanilang maling paggamit. Nananawagan din kami sa bawat organisasyon, developer, mananaliksik, at user sa komunidad ng robotics na gumawa ng mga katulad na pangako na hindi magtayo, mag-awtorisa, suportahan, o paganahin ang pagkakabit ng armas sa naturang mga robot. Kami ay kumbinsido na ang mga benepisyo para sa sangkatauhan ng mga teknolohiyang ito ay mas malaki kaysa sa panganib ng maling paggamit, at kami ay nasasabik tungkol sa isang magandang kinabukasan kung saan ang mga tao at mga robot ay nagtutulungan upang harapin ang ilan sa mga hamon ng mundo” (ayon sa nai-post online).

Ang huling bahagi ng Open Letter ay may ilang karagdagang elemento na nagpapataas ng galit.

Ang pagtawag sa mga gumagawa ng patakaran ay maaaring maipayo o hindi pinapayuhan, iginiit ng ilan. Maaari kang makakuha ng mga gumagawa ng patakaran na hindi sanay sa mga bagay na ito na gagawa ng mga klasikong rush-to-judgment at mga batas at regulasyon sa paggawa na umaagaw sa progreso sa mga AI robot. Alinsunod sa puntong naunang ginawa, marahil ang inobasyon na sumusulong sa AI robotic advances ay maabala o maaapak.

Mas mahusay na siguraduhin na alam mo kung ano ang iyong hinihiling, sabi ng mga kritiko.

Siyempre, ang kontra-argumento ay ang salaysay ay malinaw na nagsasaad na ang mga gumagawa ng patakaran ay dapat na makipagtulungan sa mga AI robotics firms upang malaman kung paano maaaring makatuwirang gumawa ng mga naturang batas at regulasyon. Ang kontra sa kontra-argumento ay ang mga gumagawa ng patakaran ay maaaring makita na tumitingin sa mga gumagawa ng AI robotics kung sila ay tumutugon sa kanilang mga kapritso. Ang kontra sa counter ng kontra-argumento ay natural na isang pangangailangan na makipagtulungan sa mga nakakaalam tungkol sa teknolohiya, o kung hindi, ang kalalabasan ay posibleng maging isang kilter. atbp.

Sa malamang na pag-aalinlangan, ang ilan ay nagkaroon ng heartburn sa linya na nanawagan sa lahat na gumawa ng katulad na mga pangako na hindi naglalakip armas sa advanced-mobility general-purpose robot. Ang keyword doon ay ang salita naglalakip. Kung ang isang tao ay gumagawa ng AI robot na nagsasama o walang putol na nag-embed ng armas, na tila nakakaintindi sa mga salita ng naglalakip isang bagay. Makikita mo ito ngayon, isang tao na mahigpit na nangangatwiran na ang sandata ay hindi nakakabit, ito ay ganap na bahagi at bahagi ng AI robot. Palampasin mo ito, bulalas nila, wala tayo sa saklaw ng pangakong iyon, at maaari pa nilang sabihin na sila nga.

Ito ay nagdadala ng isa pang reklamo tungkol sa kakulangan ng lagkit ng pangako.

Maaari bang ipahayag ng isang kompanya o sinumang gustong gumawa ng pangakong ito na hindi nila ipinangako anumang oras na nais nilang gawin ito at sa anumang dahilan na gusto nila?

Tila ganoon.

Mayroong maraming mga bandying sa paligid tungkol sa paggawa ng mga pangako at kung ano ang traksyon imbue nila.

Konklusyon

Oo, maaari mong sabihin, ang mga kumpanyang ito na nagsisikap na gawin ang tama ay nagiging tambol sa pagsisikap na gawin ang tama.

Ano ang nanggaling sa ating mundo?

Ang sinumang gumawa ng ganoong pangako ay dapat bigyan ng benepisyo ng pagdududa, maaari mong masigasig na panatilihin. Lumalabas sila sa pampublikong globo upang gumawa ng matapang at mahalagang kontribusyon. Kung sisimulan natin silang kutyain sa paggawa nito, tiyak na magpapalala ito. Walang sinuman ang magnanais na gumawa ng ganoong pangako. Ang mga kumpanya at iba pa ay hindi man lang susubukan. Magtatago sila at hindi babalaan ang lipunan tungkol sa kung ano ang maaaring maging mapanganib na mga robot na iyon.

Ipinapahayag ng mga may pag-aalinlangan na ang paraan upang maging matalino ang lipunan ay nangangailangan ng iba pang mga aksyon, tulad ng pagtigil sa mapanlikhang pagkilos ng pagpapakita ng mga nagsasayaw na AI robot. O hindi bababa sa gawin itong isang mas balanseng pagkilos. Halimbawa, sa halip na gayahin lamang ang mga minamahal na asong tapat sa alagang hayop, ilarawan kung paano ang mga sumasayaw na robot ay maaaring maging mas katulad ng mga ligaw na pinakawalan ng galit na mga lobo na maaaring magwasak ng mga tao nang walang pag-aalinlangan.

Iyon ay makakakuha ng higit na pansin kaysa sa mga pangako, nakikiusap sila.

Ang mga pangako ay maaaring maging isang palaisipan.

Gaya ng malinaw na sinabi ni Mahatma Gandhi: "Gaano man kalinaw ang pangako, ang mga tao ay babaling at ibaluktot ang teksto upang umangkop sa kanilang sariling layunin."

Marahil upang tapusin dito sa isang nakapagpapasiglang tala, sinabi ito ni Thomas Jefferson tungkol sa mga pangako: "Kami ay kapwa nangangako sa isa't isa ng aming buhay, aming mga kapalaran, at aming sagradong karangalan."

Pagdating sa mga robot ng AI, ang kanilang awtonomiya, ang kanilang pag-armas, at iba pa, lahat tayo sa huli ay magkakasama. Ang ating pangako sa isa't isa ay kailangan man lang na panatilihin natin ang mga bagay na ito sa unahan, magsusumikap tayong humanap ng mga paraan upang makayanan ang mga pag-unlad na ito, at kahit papaano ay makahanap ng paraan tungo sa pag-secure ng ating karangalan, ating kapalaran, at ating buhay.

Maaari ba nating ipangako iyon?

Umaasa ako.

Pinagmulan: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- robot-makers-saying-they-will-avert-ai-weaponization/