Ang mga eksperto sa AI ay pumirma sa doc na naghahambing ng panganib ng 'pagkalipol mula sa AI' sa mga pandemya, digmaang nuklear

Dose-dosenang mga eksperto sa artificial intelligence (AI), kabilang ang mga CEO ng OpenAI, Google DeepMind at Anthropic, ay lumagda kamakailan sa isang bukas na pahayag na inilathala ng Center for AI Safety (CAIS). 

Ang pahayag ay naglalaman ng isang pangungusap:

"Ang pagbabawas sa panganib ng pagkalipol mula sa AI ay dapat maging isang pandaigdigang priyoridad kasama ng iba pang mga panganib sa antas ng lipunan tulad ng mga pandemya at digmaang nukleyar."

Kabilang sa mga lumagda sa dokumento ay isang tunay na “sino” ng AI luminaries, kasama ang “Godfather” ng AI, Geoffrey Hinton; Unibersidad ng California, Stuart Russell ng Berkeley; at Lex Fridman ng Massachusetts Institute of Technology. Ang Musician Grimes ay isa ring signatory, na nakalista sa ilalim ng kategoryang "iba pang mga kilalang tao".

Nauugnay: Ang musikero na si Grimes ay handang 'hatiin ang 50% royalties' sa musikang binuo ng AI

Habang ang pahayag ay maaaring mukhang hindi nakapipinsala sa ibabaw, ang pinagbabatayan na mensahe ay medyo kontrobersyal sa komunidad ng AI.

Ang isang tila lumalaking bilang ng mga eksperto ay naniniwala na ang mga kasalukuyang teknolohiya ay maaaring o hindi maiiwasang humantong sa paglitaw o pag-unlad ng isang AI system na may kakayahang magdulot ng isang umiiral na banta sa mga species ng tao.

Ang kanilang mga pananaw, gayunpaman, ay sinasalungat ng isang pangkat ng mga eksperto na may dyametrikong salungat na mga opinyon. Halimbawa, ang meta chief AI scientist na si Yann LeCun, ay nabanggit sa maraming pagkakataon na hindi siya nangangahulugang naniniwala na ang AI ay magiging hindi nakokontrol.

Para sa kanya at sa iba pang hindi sumasang-ayon sa retorika ng "pagkalipol", tulad ni Andrew Ng, co-founder ng Google Brain at dating punong siyentipiko sa Baidu, hindi AI ang problema, ito ang sagot.

Sa kabilang panig ng argumento, ang mga eksperto tulad ng Hinton at Conjecture CEO na si Connor Leahy ay naniniwala na ang AI sa antas ng tao ay hindi maiiwasan at, dahil dito, ang oras upang kumilos ay ngayon.

Gayunpaman, hindi malinaw kung anong mga aksyon ang hinihiling ng mga lumagda sa pahayag. Ang mga CEO at/o mga pinuno ng AI para sa halos lahat ng pangunahing kumpanya ng AI, pati na rin ang mga kilalang siyentipiko mula sa buong akademya, ay kabilang sa mga pumirma, na ginagawang malinaw na ang layunin ay hindi upang ihinto ang pagbuo ng mga potensyal na mapanganib na sistemang ito.

Sa unang bahagi ng buwang ito, ang CEO ng OpenAI na si Sam Altman, isa sa mga nabanggit na lumagda sa pahayag, ay unang humarap sa Kongreso sa panahon ng pagdinig sa Senado upang talakayin ang regulasyon ng AI. Ang kanyang testimonya ay naging mga headline matapos niyang gugulin ang karamihan nito sa paghimok sa mga mambabatas na i-regulate ang kanyang industriya.

Ang Altman's Worldcoin, isang proyektong pinagsasama ang cryptocurrency at proof-of-personhood, ay kamakailan-lamang ay gumawa ng mga pag-ikot sa media pagkatapos na makalikom ng $115 milyon sa pagpopondo ng Series C, na dinala ang kabuuang pondo nito pagkatapos ng tatlong round sa $240 milyon.

Pinagmulan: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war