Kailangang Harapin ng Mga Tagagawa ng Patakaran ang Mga Tunay na Hamon sa AI

Ang pagtuon sa maulap na panganib ng pagkalipol mula sa AI ay isang mapanganib na pagkagambala.

Noong nakaraang linggo, isang grupong pinondohan ng Silicon Valley na tinatawag na Center for AI Safety ay naglabas ng isang pangungusap na pahayag: "Ang pagbabawas sa panganib ng pagkalipol mula sa AI ay dapat na isang pandaigdigang priyoridad kasama ng iba pang mga panganib sa antas ng lipunan tulad ng mga pandemya at digmaang nuklear." Ito ay nilagdaan ng maraming pinuno ng industriya at iginagalang na mga mananaliksik ng AI at nakatanggap ng malawak na saklaw sa press.

Ang mas malawak na reaksyon sa pahayag ay malupit. Sinabi ni University of Oxford Professor Sandra Wachter na isa lamang itong publicity stunt. Ang ilan sa mga mas matinong lumagda gaya ng security expert na si Bruce Schneier ay mabilis na nagpahayag ng pagsisisi sa mga pumirma. "Hindi ko talaga iniisip na ang AI ay nagdudulot ng panganib sa pagkalipol ng tao," sabi ni Schneier.

Inakala ng iba na ang pahayag ay talagang isang gimik sa pangangalap ng pondo. Ang propesor ng Sociology ng Duke University na si Kieren Healy ay nag-post ng isang mock na paraphrase: "Ako at ang aking mga kaibigan ay mangangailangan ng isang ganap na trak ng grant na pera upang mapagaan ang literal na antas ng mga species na umiiral na mga banta na nauugnay sa bagay na ito na sinasabi naming ginagawa."

Si Marietje Schaake, isang dating parliamentarian ng EU na ngayon ay nasa Cyber ​​Policy Center ng Stanford University, ay iminungkahi na ang subtext ng pahayag ay ang mga policymakers ay dapat harapin ang existential na panganib, habang ang mga executive ng negosyo ay nagtatakda ng mga aktwal na panuntunan para sa paggamit ng AI. Bagama't maaaring nobela ang AI, aniya, ang implicit na argumento na ito na ang mga pinuno ng industriya ng AI ay "pinakamahusay na inilagay upang i-regulate ang mismong mga teknolohiyang ginagawa nila" ay walang iba kundi ang mga puntong pinag-uusapan na na-recycle mula sa dati nilang paggamit sa mga kontrobersya sa social media at cryptocurrencies.

Ang palagay ko ay ang mga apocalyptic na babala ng AI na nakakamit ng may kamalayan at independiyenteng ahensya ay isang nakakagambala mula sa mga tunay na hamon ng AI na nangangailangan ng mga regulator na palakasin ang pagpapatupad ng kasalukuyang batas at mga gumagawa ng patakaran upang isaalang-alang ang mga pagbabago upang harapin ang mga legal na gaps.

Ang pandaraya na nagawa gamit ang AI ay ilegal, gaya ng sinabi ni Federal Trade Commission Chair Lina Khan. Nagbabala na ang ahensya tungkol sa paggamit ng AI para gayahin ang mga tao para gumawa ng video at mga scam sa telepono. Napansin ng China ang parehong bagay at sinisira ang mga scam na hinimok ng AI. Hindi malinaw na mayroong mga bagong legal na isyu dito, ngunit ang napakalaking pagsisikap sa pagpapatupad ay kinakailangan upang makontrol ang paparating na pagbaha ng pandaraya ng AI. Ang ganap na pagpopondo sa kahilingan ng badyet ng ahensya na $590 milyon ay magiging isang mas produktibong paggamit ng pampublikong pera kaysa sa pag-aaral ng mga umiiral na panganib ng AI.

Ang lahat ay wastong nag-aalala tungkol sa maling impormasyon na nilikha ng AI, tulad ng kamakailang 'Pekeng Putin' anunsyo na ang Russia ay inaatake. Maaaring malaki ang maitutulong ng pag-label para mabawasan ang mga panganib na ito. Ang komersyal mula sa Republican National Committee na sumunod sa pag-anunsyo ni Biden ng kanyang kandidatura sa pagkapangulo ay gumamit ng AI upang makabuo ng mga larawan ng kung ano ang maaaring mangyari sa ilalim ng isang bagong Biden Presidency ngunit ito ay nilagyan ng label na ganoon at nabawasan ang panganib ng maling impormasyon.

Ang transparency para sa AI ay mababang-hanging na bunga ng patakaran na dapat kunin ng mga gumagawa ng patakaran, tulad ng ginagawa ng ilan. Sa linggong ito, hinikayat ng bise presidente ng European Commission na si Vera Jourova ang mga tech na kumpanya na lagyan ng label ang nilalamang nabuo ng artificial intelligence. Sa US, malapit nang ipakilala ni Rep. Ritchie Torres (DN.Y.) ang batas na mangangailangan sa mga serbisyo tulad ng ChatGPT na ibunyag na ang output nito ay "binuo ng artificial intelligence."

Ang copyright at AI ay isa pang hamon. Ang ilang kaliwanagan ay kailangan tungkol sa pagbabayad ng mga may-ari ng copyright para sa paggamit ng kanilang materyal para sa pagsasanay sa AI. Noong Pebrero, idinemanda ni Getty ang Stability AI sa US na nagsabing ang kumpanya ng AI ay kinopya ang 12 milyong mga larawan ng Getty nang walang pahintulot na sanayin ang Stable Diffusion AI image-generation software nito. Noong nakaraang linggo, hiniling nito sa korte sa London na harangan ang Stability AI sa UK dahil nilabag ng kumpanya ng AI ang copyright ng Getty sa pagsasanay sa system nito.

Ang mga kasong ito ay iha-hash out sa korte. Ngunit mayroong isang disenteng argumento na ang mga may hawak ng copyright ay hindi kailangang mabayaran sa lahat dahil sa patas na paggamit o dahil tanging hindi protektadong mga katotohanan at ideya ang nakuha para sa pagsasanay sa AI. Bukod dito, ang direktiba ng 2019 Copyright in Digital Single Market ng European Union ay naglalaman ng eksepsiyon na nagbibigay-daan sa pagmimina ng text at data ng online na naka-copyright na materyal maliban kung mag-opt out ang may-ari ng copyright sa pamamagitan ng paggamit ng mga teknolohikal na proteksyon gaya ng header blocker upang maiwasan ang pag-scan. Maaaring saklawin nito ang data ng pagsasanay sa AI.

Ang kasalukuyang draft ng Artificial Intelligence Act ng European Union ay nangangailangan ng pagbubunyag ng mga naka-copyright na gawa na ginagamit sa pagsasanay ng mga AI system. Mukhang nilayon nitong bigyang-daan ang mga may-ari ng copyright na gamitin ang kanilang karapatang mag-opt out sa text at data mining para sa AI training. Ngunit maaari rin itong isang hakbang patungo sa higit pa. Maaari itong humantong sa isang sapilitang rehimen ng lisensya na pumipigil sa mga may hawak ng copyright mula sa pagharang sa pagsasanay sa AI ngunit magbibigay sa kanila ng ilang kabayaran para sa paggamit ng kanilang intelektwal na ari-arian. Ang pag-aayos ng mga isyu sa copyright na ito ay mangangailangan ng nakatutok na atensyon mula sa mga gumagawa ng patakaran.

Ang AI Act ng EU ay nangangailangan din ng mga mapanganib na AI system na sumailalim sa isang proseso ng sertipikasyon na naglalayong tiyakin na ang mga panganib ay sapat na nasuri at ang mga makatwirang hakbang sa pagpapagaan ay pinagtibay. Itinuring ng kasalukuyang draft ang mga foundational na modelo tulad ng ChatGPT bilang mga peligrosong sistema na napapailalim sa certification, isang potensyal na pasanin na tila nag-udyok kay Open AI head Sam Altman na sabihing aalisin niya ang ChatGPT mula sa Europe kung hindi niya ito masusunod. Mula noon ay tinalikuran na niya ang pananakot na iyon, na nagsasabing wala siyang planong umalis.

Pero may punto siya. Dapat tanungin ng mga gumagawa ng patakaran na naghahanap ng konkretong isyu na pag-iisipan ang kanilang sarili kung paano masi-certify bilang "ligtas" ang isang pangkalahatang layunin na AI system gaya ng ChatGPT kapag marami sa mga panganib ang lalabas lamang kapag nailapat ang system sa pagsasanay.

Ilan lamang ito sa mga pangunahing isyu ng AI na dapat alalahanin ng mga gumagawa ng patakaran. Kasama sa iba ang mga epekto sa pagtatrabaho ng mas may kakayahang AI system, mga hamon sa privacy kapag kasama sa data ng pagsasanay ang personal na impormasyon, ang tendensya sa konsentrasyon na nilikha ng napakalaking gastos at mga epekto sa network ng software ng pagsasanay sa AI, ang aplikasyon ng mga panuntunan sa pananagutan ng Seksyon 230, at ang pagpapatupad ng ang mga batas laban sa pagkiling sa pagpapautang, pabahay at trabaho kapag ang AI ay nagtutulak ng mga pagtatasa sa pagiging karapat-dapat.

Ang mga gumagawa ng patakaran ay hindi kailangan at hindi dapat gumala sa maulap na lugar kung saan ang mga autonomous AI program ay umiikot sa kawalan at nagbabanta sa kaligtasan ng tao. Marami silang trabahong dapat gawin upang harapin ang maraming hamon ng AI sa totoong mundo.

Pinagmulan: https://www.forbes.com/sites/washingtonbytes/2023/06/06/policymakers-need-to-deal-with-real-ai-challenges/