Ang Cry Wolf Moment Ng AI Hype ay Hindi Nakakatulong

Bagama't ako ay isang taong nag-aaral ng mga end of humanity scenario, naniniwala ako na ang "expert letter" na nagmumungkahi ng 6 na buwang AI moratorium o ang pinakahuling pahayag na ang AI risk ay nasa antas ng pandemic at nuclear risk, ay parehong overhyped. Ang mas wild na opinyon na kailangan nating isara ang AI ay iresponsable. Ang anumang pag-aalala ay dapat na proporsyonal sa mga panganib na kinakaharap natin. Sa ngayon, wala tayong agarang panganib mula sa AI.

Ang mga kasalukuyang AI ay hindi kayang kunin ang lipunan. Wala silang damdamin at hindi karapat-dapat na protektahan ang paraan ng pamumuhay ng tao. Hindi sila superintelligent at hindi hihigit sa mga tao sa anumang pangkalahatang paraan. Sa katunayan, hindi sila nag-iisip. Sa ngayon, kung nagpapakain ng maraming data, ang mga AI ay napakahusay sa mga partikular na gawain tulad ng pagkalkula at hula. Hindi iyon nakakabahala, iyon ang mga tampok ng mga system na ito ayon sa disenyo. Kasama sa pangako ng AI ang paglutas ng cancer, pagbabago ng industriyal na produksyon, pagmomodelo ng mga sitwasyon sa hinaharap, at pamamahala sa mga hamon sa kapaligiran. Dahil dito, may mga lehitimong dahilan para punahin ang mga kasalukuyang AI para sa paggamit ng mapagkukunan, transparency, bias, cybersecurity, at ang epekto nito sa trabaho sa hinaharap.

Ang mga AI ay computationally mahal–na nangangahulugan na sila ay isang malaking pag-aaksaya ng mahirap, fossil na enerhiya. Ito ay kailangang matugunan kaagad. Ngunit ito ay hindi isang eksistensyal na isyu, ito ay isang bagay ng makatuwirang paggamit ng mapagkukunan. Ang katotohanan na ang mga AI na umaasa sa malaki at hindi mahusay na mga modelo ng data ay nagiging masyadong mahal upang subaybayan at imbestigahan ng akademya o pamahalaan ay isang tunay na isyu. Ngunit ito ay malapit nang maayos. Ang consortia ng mga elite na institusyong pang-akademiko o pamahalaan ay maaaring magsama-sama at magbahagi ng mga mapagkukunan ng computing sa paraang ginawa nila para sa supercomputing.

Ang Large Language Models (LLM) ay mga modelo ng AI na maaaring makabuo ng mga natural na text ng wika mula sa malaking halaga ng data. Ang isang problema dito ay ang mga tekstong ito ay direktang hinango mula sa tapat na intelektwal na kontribusyon ng ibang tao. Sila ay sa katunayan ninakaw. Ang Generative AI, sa partikular, ay muling pinagsama ang data ng consumer at organisasyon pati na rin ang malikhaing nilalaman sa matinding paglabag sa copyright. Seryoso ito, ngunit hindi eksistensyal, at higit pa rito, nasa kaso na ang EU, mga tagalobi mula sa Hollywood at ang "big five" na mga publisher ng libro. Asahan na ito ay magpapabagal sa bigat ng AI. Sa kasalukuyang rate, mauubusan ng magandang data ng pagsasanay ang mga AI bago ito lumapit sa sentience.

Ang mga algorithm na ginamit na upang kalkulahin ang aming mga buwis, piliin ang aming mga online na feed, o ilagay ang mga tao sa bilangguan ay may kapansin-pansing kakulangan ng transparency. Gayunpaman, ito ay nangyari sa loob ng maraming taon, at walang kinalaman sa pinakabagong mga pag-unlad ng AI. Ang AI bias ay isang tampok at hindi isang bug. Ang stereotyping ay, sa katunayan, ang pangunahing diskarte kung saan gumagana ang mga naturang modelo. Maliban na ang pagkiling ay nakatago sa hindi malalampasan na mga layer ng pangangatwiran ng makina na mahirap makuha ng mga tao, mga eksperto o hindi. Ang dapat nating tanungin ay ang karunungan ng mga developer na bumuo ng mga ganitong sistema, hindi ang kakayahan ng system na kanilang nilikha, na isang ibinigay. Ang mga sistema ay bihirang maging mas mahusay kaysa sa karunungan o intensyon ng mga taong nagtatayo o nagpapatakbo nito.

Sinasalamin ng data ng pagsasanay ng AI ang mga bias na naroroon sa lipunan kung saan nakolekta ang data na iyon. Ang muling paggamit ng hindi magandang data ng pagsasanay ay isang nakababahalang kasanayan na nagpaparumi na sa mga modelo ng AI. Ang kasalukuyang mga diskarte sa AI ay nagpapalaki lamang ng bias upang mabilis na makakuha ng isang resulta. Ito ay, tinatanggap, ang kabaligtaran ng kung ano ang gusto namin. Ang gusto nating gawin ay gumamit ng teknolohiya para pangalagaan ang pagkakamali ng tao. Ang pag-aalala tungkol sa pagkakamali ng makina ay isang maaksayang paggamit ng katalinuhan ng tao.

Sa kabila ng metapora ng "neural network", ang mga kasalukuyang AI ay hindi katulad ng mga utak sa anumang bahagi ng imahinasyon. Ang mga kasalukuyang sistema ng AI ay hindi maaaring mangatuwiran sa pamamagitan ng pagkakatulad tulad ng ginagawa ng mga tao. Mabuti ito. Maaaring hindi talaga namin gusto ang uri ng AI alignment na itinataguyod at sinusubukang tularan ng mga zealots. Ang mga makina ay dapat na iba sa mga tao. Ganyan natin ma-maximize ang strengths ng isa't isa. At kung paano natin mapapanatili na naiiba at magkahiwalay ang mga makina. Ang mga makina ay hindi dapat magkaroon ng anumang mga interes na ihanay.

Ang AI ay lalong kumakatawan sa isang makabuluhang banta sa cybersecurity bilang isang asset para sa mga kriminal at masasamang estado. Ngunit ang cybersecurity ay isang mature na industriya na may maraming eksperto na mahusay na nilagyan upang mahawakan ang hamon. Walang dahilan upang isara ang AI dahil sa mga takot sa cybersecurity.

Ang pagkagambala sa trabaho dahil sa AI ay isang isyu sa patakaran sa loob ng maraming taon, una sa mga robot, ngayon ay may mga software-based na AI system. Nangangahulugan ito na ang mga pamahalaan ay magiging handa na harapin ito. Ang pag-aaral ng MIT Work of The Future ay natagpuan ang pag-aalala tungkol sa kawalan ng trabaho dahil sa mga robot na labis na nasasabik. Ang mga tao ay palaging nakahanap ng mga paraan upang magtrabaho at gagawin din ito sa hinaharap. Mababago ba ng AI ang pagmamanupaktura? Ito ay nangyayari na, ngunit sa isang medyo kontroladong paraan.

Paminsan-minsan, ang AI ay dumaranas ng mga overhyped na pangako tungkol sa kasalukuyang functionality o saklaw sa hinaharap. Nagsimula ang mga unang taglamig ng AI noong 1974–1980, habang kinukuha ng gobyerno ng US ang pondo nito. Ang pangalawa ay mula 1987–1993, habang tumataas ang mga gastos, at nabigo ang AI na tumupad sa matataas na pangako nito.

Naghihintay na dumating ang mga bagong paradigma, sa panahon mula 2025–2030, malamang na papasok tayo sa ikatlong taglamig ng AI. Hindi bababa sa kung ihahambing sa mainit na tag-araw ng AI na ipinangako sa amin. Ang dahilan ay, sa kabila ng hype, para sa lahat ng mga dahilan na nakabalangkas sa itaas, ang malalaking modelo ng wika ay malapit nang maabot ang kanilang pinakamataas na utilidad at sa kalaunan ay kakailanganing palitan ng mas matikas na pagkalkula na mga diskarte na mas transparent.

Ang isang naturang kandidato ay ang hyperdimensional computing na gagawing mas mahusay ang pangangatwiran ng mga makina dahil binibigyan nila ang mga makina ng semantikong pag-unawa, ang kakayahang magproseso ng kahulugan at konteksto sa likod ng impormasyon sa totoong mundo. Sa ngayon, ang mga AI system ay hindi nauunawaan ang mga ugnayan sa pagitan ng mga salita at parirala, ang mga ito ay mahusay lamang sa hula. Iyan ay hindi sapat. Sa kalaunan ay kakailanganin natin ang nakapaloob na AI, dahil ang pag-iisip ay nakatali sa pang-unawa sa espasyo. Talagang iyon ang kaso sa pagmamanupaktura na isang lubos na pisikal na laro. Kakailanganin din namin ang AI na may kakayahan sa mga feature ng memorya ng tao tulad ng pag-prioritize batay sa foregrounding ng ilang impormasyon at backgrounding ng iba pang impormasyon. Ang paglimot ay isang tool na ginagamit ng mga tao para sa abstract na pag-iisip, paglipat mula sa hindi na ginagamit na mga kasanayan sa organisasyon, paggawa ng mga desisyon, at para sa pananatili sa sandaling ito at hindi lamang isang depekto. Wala pang makina na kayang gawin iyon nang napakahusay.

Pansamantala, kailangan nating ayusin, ngunit hindi sa segundong ito. At, kapag nag-regulate tayo, mas mabuting gawin natin ito nang maayos. Ang masamang regulasyon ng AI ay malamang na magpapalala sa sitwasyon. Makakatulong ang paggising sa mga regulator sa hamong ito, ngunit hindi ako sigurado na handa ang kasalukuyang henerasyon ng mga regulator para sa ganoong uri ng malawak na pagbabago na kakailanganin para magawa ito nang maayos. Kakailanganin nito ang pagbawas sa mga makapangyarihang kumpanya (marahil lahat ng nakalistang kumpanya), paglilimita sa paggamit ng AI sa pamamahala, at mangangahulugan ng napakalaking pagbabago sa paraan ng kasalukuyang gumagana ng mga merkado ng consumer. Sa esensya, kailangan nating i-rewire ang lipunan. Ito ay magdadala sa atin sa pagkabulok ng ilang dekada nang mas maaga kaysa sa inaasahan natin. Ang hamon sa transparency na nakapalibot sa AI ay maaaring maging mas kakila-kilabot kaysa sa mga variable ng kontrol na tila labis na nag-aalala tungkol sa lahat, hindi dahil hindi sila nauugnay, siyempre.

Bukod dito, hindi tayo maaaring mag-alala nang pantay-pantay sa tuwing maaabot ang isang benchmark ng AI. Kailangan nating i-conserve ang ating mga enerhiya para sa tunay na malalaking sandali ng panganib na tumaas. Darating sila at, in fairness, hindi kami handa. Ang aking mga inaasahang sitwasyon sa hinaharap (tingnan ang Extinction Scenarios para sa 2075) ay may kasamang napakalaking paglabag sa data na nagpapanatili sa buong bansa na naka-lock sa labas ng kanilang sariling mga proseso sa loob ng ilang buwan. Nag-aalala rin ako tungkol sa mga AI na tinutulungan ng mga kriminal na grupo o aktor ng estado. Higit sa lahat, nag-aalala ako tungkol sa mga kumbinasyon ng AI, nanotech, synthetic biology at quantum na teknolohiya–malapit sa hindi nakikitang quasi-organic na katalinuhan ng hindi kilalang kakayahan, marahil ilang dekada na lang ang layo, na nangyayari kapag ang mundo ay mauubos ng mga dumadaloy na epekto ng klima pagbabago.

Ang mga kasalukuyang modelo ng AI ay hindi pa gumagana nang maayos upang maging banta sa sangkatauhan. Bago natin mapag-isipang isara ang mga ito, kailangan natin ng mas mahuhusay na AI. Higit pa riyan, kailangan natin ng mas matalinong mga developer, mas sensitibong mamamayan, at mas matalinong mga gumagawa ng patakaran. Kailangan din namin ng konsepto para sa PAANO i-regulate ang AI. Ngunit ito ay magagawa nang hindi nagpapabagal ng anuman. Ito ay magiging isang pang-edukasyon na paglalakbay para sa lahat. Ang moratorium letter tungkol sa GPT 4 (2023) ay isang cry wolf moment na may bahagyang pagkakahawig lamang sa mga dumadating na panganib na kinakaharap ng sangkatauhan sa mga darating na dekada. Ang paglalagay ng AI risk sa antas ng pandemic na risk at nuclear risk sa 2023 ay napaaga. Pupunta ba tayo doon? siguro. Ngunit ang umiiyak na lobo ay may kahihinatnan. Ito ay sumisipsip ng oxygen sa mga darating na debate tungkol sa mga tunay na takot.

Pinagmulan: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/