AI Ethics At AI Law na Nililinaw Kung Ano Sa Katotohanan Ang Mapagkakatiwalaan AI

Trust is everything, sabi nga nila.

Ang kilalang pilosopo na si Lao Tzu ay nagsabi na ang mga hindi masyadong nagtitiwala ay hindi mapagkakatiwalaan. Sinabi ni Ernest Hemingway, isang iginagalang na nobelista, na ang pinakamahusay na paraan upang malaman kung mapagkakatiwalaan mo ang isang tao ay sa pamamagitan ng pagtitiwala sa kanila.

Samantala, tila mahalaga at malutong ang pagtitiwala. Ang tiwala na mayroon ang isa ay maaaring gumuho tulad ng isang bahay ng mga baraha o biglang sumabog tulad ng isang pop balloon.

Iginiit ng sinaunang Griyegong trahedya na si Sophocles na ang pagtitiwala ay namamatay ngunit ang kawalan ng tiwala ay namumulaklak. Ipinaglaban ng pilosopo at matematikong Pranses na si Descartes na maingat na huwag magtiwala nang buo sa mga nanlinlang sa atin kahit isang beses. Pinayuhan ng bilyonaryo na mamumuhunan sa negosyo na si Warren Buffett na kailangan ng dalawampung taon upang makabuo ng isang mapagkakatiwalaang reputasyon at limang minuto upang sirain ito.

Maaaring mabigla kang malaman na ang lahat ng iba't ibang pananaw at mapanuksong opinyon tungkol sa tiwala ay mahalaga sa pagdating ng Artificial Intelligence (AI).

Oo, mayroong isang bagay na masigasig na tinutukoy bilang mapagkakatiwalaan AI na patuloy na nakakakuha ng maraming atensyon sa mga araw na ito, kabilang ang mga handwringing catcall mula sa loob ng larangan ng AI at pati na rin ang mga maingay na pagsabog ng mga nasa labas ng AI realm. Ang pangkalahatang paniwala ay nagsasangkot kung ang lipunan ay magiging handa o hindi na magtiwala sa mga katulad ng mga sistema ng AI.

Marahil, kung ang lipunan ay hindi o hindi mapagkakatiwalaan ang AI, ang posibilidad ay ang mga AI system ay mabibigo na makakuha ng traksyon. Ang AI na alam natin sa kasalukuyan ay itatabi at mangongolekta lamang ng alikabok. Nakakagulat, ang AI ay maaaring mapunta sa junk heap, na ibinalik sa kasaysayan sa isang desperadong sinubukan ngunit kamangha-manghang nabigong high-tech na eksperimento. Anumang mga pagsisikap na pasiglahin muli ang AI ay potensyal na haharap sa isang napakalaking mahirap na labanan at mapipigilan ng lahat ng uri ng pagtutol at tahasang mga protesta. Kumbaga, dahil sa kawalan ng tiwala sa AI.

Alin ang mangyayari, magtitiwala ba tayo sa AI, o hindi ba tayo magtitiwala sa AI?

Sa esensya, magkakaroon ba tayo ng tunay na mapagkakatiwalaang AI?

Iyan ay dati at hindi nalutas na mga katanungan. I-unpack natin ito.

AI Ethics At Ang Pakikibaka Para sa Mapagkakatiwalaang AI

Ang paniniwala ng marami sa loob ng AI ay ang mga developer ng mga AI system ay maaaring makakuha ng tiwala sa AI sa pamamagitan ng naaangkop na pagbuo ng AI na mapagkakatiwalaan. Ang kakanyahan ay hindi ka makakaasa na makakuha ng tiwala kung ang AI ay tila hindi mapagkakatiwalaan sa simula. Sa pamamagitan ng paggawa ng mga AI system sa paraang itinuturing na mapagkakatiwalaan, mayroong isang matibay na pagkakataon na tatanggapin ng mga tao ang AI at gamitin ang AI.

Ang isang pagkabalisa na nababahala na sa mapagkakatiwalaang pagsasaalang-alang ng AI na ito ay maaaring nasa a kakulangan sa tiwala ng publiko pagdating sa AI. Maaari mong sabihin na ang AI na nakita na natin ay naghukay ng butas at nagwawasak ng tiwala sa napakalaking dami. Kaya, sa halip na magsimula sa ilang sapat na batayan ng pagiging mapagkakatiwalaan, ang AI ay kailangang makatakas na umahon mula sa depisit, na kumukuha ng bawat ninanais na onsa ng karagdagang pagtitiwala na kakailanganin upang kumbinsihin ang mga tao na ang AI ay sa katunayan ay mapagkakatiwalaan.

Kasama sa hamon na ito ang AI Ethics at AI Law.

Ang AI Ethics at AI Law ay labis na nahihirapan sa pagsisikap na malaman kung ano ang kinakailangan para maging mapagkakatiwalaan ang AI. Ang ilan ay nagmumungkahi na mayroong isang pormula o hindi matatag na batas na magdadala ng AI sa mapagkakatiwalaang langit. Isinasaad ng iba na mangangailangan ng pagsusumikap at pare-pareho at walang humpay na pagsunod sa mga prinsipyo ng AI Ethics at AI Law para makuha ang ipinagmamalaki na tiwala ng lipunan.

Ang kontemporaryong enigma tungkol sa pagtitiwala sa AI ay hindi lalo na bago sa bawat isa.

Madali kang makakabalik sa huling bahagi ng 1990s at matunton ang paglitaw ng isang hinahangad na pagnanais para sa "pinagkakatiwalaang computing" mula sa mga araw na iyon. Ito ay isang malakihang pagsisikap sa tech-industriya upang matukoy kung ang lahat ng sinabi sa computer ay maaaring gawin sa paraang maituturing na mapagkakatiwalaan ng lipunan.

Ang mga pangunahing katanungan ay binubuo ng:

  • Maaari bang gawin ang hardware ng computer na ito ay mapagkakatiwalaan?
  • Maaari bang gawin ang software na ito ay mapagkakatiwalaan?
  • Maaari ba tayong maglagay ng mga global network na computer na mapagkakatiwalaan?
  • At iba pa.

Ang nangingibabaw na sentimyento noon at nagpapatuloy hanggang ngayon ay ang mapagkakatiwalaang pag-compute ay nananatiling isang uri ng banal na kopita na sa kasamaang-palad ay hindi pa rin natin maaabot (tulad ng nabanggit sa isang papel na pinamagatang "Trustworthy AI" sa Komunikasyon ng ACM). Maaari mong ipangatuwiran na ang AI ay isa pang bahagi ng computing trustworthiness envelopment, ngunit ang AI ay ginagawang mas mahirap at hindi sigurado ang paghahangad ng tiwala. Ang AI ay naging potensyal na spoiler sa paglaban upang makamit ang mapagkakatiwalaang computing. Marahil ang pinakamahina na link sa kadena, kumbaga.

Tingnan natin nang mabilis kung bakit naging mas mababa sa pagiging mapagkakatiwalaan ang AI. Bilang karagdagan, tutuklasin namin ang mga prinsipyo ng AI Ethics na inaasahan na makakatulong sa pagtaguyod ng semi-underwater perceived trust (o bubbling distrust) ng AI ngayon. Para sa aking patuloy at malawak na saklaw ng AI Ethics, tingnan ang link dito at ang link dito, Lamang upang pangalanan ang ilang.

Ang isang partikular na segment o bahagi ng AI Ethics na nakakakuha ng maraming atensyon ng media ay binubuo ng AI na nagpapakita ng hindi kanais-nais na mga bias at hindi pagkakapantay-pantay. Maaaring alam mo na noong nagsimula ang pinakabagong panahon ng AI, nagkaroon ng malaking pagsabog ng sigasig para sa tinatawag ngayon ng ilan. AI For Good. Sa kasamaang palad, sa mga takong ng bumubulusok na kaguluhan na iyon, nagsimula kaming masaksihan AI Para sa Masama. Halimbawa, ang iba't ibang mga sistema ng pagkilala sa mukha na nakabatay sa AI ay ipinakita bilang naglalaman ng mga pagkiling sa lahi at mga bias ng kasarian, na tinalakay ko sa ang link dito.

Mga pagsisikap na lumaban AI Para sa Masama ay aktibong isinasagawa. Bukod sa maingay legal mga hangarin ng pagpigil sa maling gawain, mayroon ding malaking pagtulak patungo sa pagyakap sa AI Ethics upang ituwid ang karahasan ng AI. Ang paniwala ay dapat nating gamitin at i-endorso ang mga pangunahing prinsipyo ng Etikal na AI para sa pagbuo at paglalagay ng AI na ginagawa ito upang mabawasan ang AI Para sa Masama at sabay na nagbabadya at nagtataguyod ng mas kanais-nais AI For Good.

Sa isang kaugnay na paniwala, ako ay isang tagapagtaguyod ng pagsisikap na gamitin ang AI bilang bahagi ng solusyon sa mga problema ng AI, paglaban sa apoy gamit ang apoy sa ganoong paraan ng pag-iisip. Halimbawa, maaari naming i-embed ang mga bahagi ng Ethical AI sa isang AI system na susubaybayan kung paano ginagawa ng iba pang AI ang mga bagay at sa gayon ay potensyal na mahuli sa real-time ang anumang mga pagsisikap na may diskriminasyon, tingnan ang aking talakayan sa ang link dito. Maaari rin tayong magkaroon ng hiwalay na AI system na gumaganap bilang isang uri ng AI Ethics monitor. Ang sistema ng AI ay nagsisilbing isang tagapangasiwa upang subaybayan at makita kung kailan ang isa pang AI ay napupunta sa hindi etikal na kailaliman (tingnan ang aking pagsusuri sa gayong mga kakayahan sa ang link dito).

Sa ilang sandali, ibabahagi ko sa iyo ang ilang pangkalahatang mga prinsipyo na pinagbabatayan ng AI Ethics. Mayroong maraming mga ganitong uri ng mga listahan na lumulutang dito at doon. Maaari mong sabihin na wala pang isang solong listahan ng unibersal na apela at pagsang-ayon. Yan ang nakakalungkot na balita. Ang magandang balita ay kahit papaano mayroong mga madaling magagamit na listahan ng AI Ethics at malamang na magkapareho ang mga ito. Ang lahat ng sinabi, ito ay nagmumungkahi na sa pamamagitan ng isang paraan ng makatwirang convergence ng mga uri na hinahanap namin ang aming paraan patungo sa isang pangkalahatang pagkakatulad ng kung ano ang binubuo ng AI Ethics.

Una, saklawin natin nang maikli ang ilan sa mga pangkalahatang tuntunin ng Etikal na AI upang ilarawan kung ano ang dapat na mahalagang pagsasaalang-alang para sa sinumang gumagawa, naglalagay, o gumagamit ng AI.

Halimbawa, tulad ng sinabi ng Vatican sa Panawagan ng Roma Para sa Etika ng AI at gaya ng tinakpan ko ng malalim sa ang link dito, ito ang kanilang natukoy na anim na pangunahing prinsipyo sa etika ng AI:

  • Transparency: Sa prinsipyo, ang mga AI system ay dapat na maipaliwanag
  • Pagsasama: Ang mga pangangailangan ng lahat ng tao ay dapat isaalang-alang upang ang lahat ay makinabang, at ang lahat ng indibidwal ay maihandog ang pinakamahusay na posibleng mga kondisyon upang ipahayag ang kanilang sarili at umunlad.
  • Responsibilidad: Ang mga nagdidisenyo at nagde-deploy ng paggamit ng AI ay dapat magpatuloy nang may pananagutan at transparency
  • Pagkakaiba-iba: Huwag lumikha o kumilos ayon sa pagkiling, kaya pinangangalagaan ang pagiging patas at dignidad ng tao
  • Kahusayan: Dapat na gumana nang mapagkakatiwalaan ang mga AI system
  • Seguridad at privacy: Dapat gumana nang ligtas ang mga AI system at igalang ang privacy ng mga user.

Gaya ng sinabi ng US Department of Defense (DoD) sa kanilang Mga Etikal na Prinsipyo Para sa Paggamit ng Artipisyal na Katalinuhan at gaya ng tinakpan ko ng malalim sa ang link dito, ito ang kanilang anim na pangunahing prinsipyo sa etika ng AI:

  • Responsable: Ang mga tauhan ng DoD ay gagamit ng mga naaangkop na antas ng paghatol at pangangalaga habang nananatiling responsable para sa pagbuo, pag-deploy, at paggamit ng mga kakayahan ng AI.
  • Pantay-pantay: Magsasagawa ang Departamento ng mga sadyang hakbang upang mabawasan ang hindi sinasadyang pagkiling sa mga kakayahan ng AI.
  • Nasusubaybayan: Ang mga kakayahan sa AI ng Departamento ay bubuo at ipapakalat upang ang mga nauugnay na tauhan ay nagtataglay ng naaangkop na pag-unawa sa teknolohiya, mga proseso ng pag-unlad, at mga pamamaraan ng pagpapatakbo na naaangkop sa mga kakayahan ng AI, kabilang ang mga transparent at naa-audit na pamamaraan, pinagmumulan ng data, at pamamaraan at dokumentasyon ng disenyo.
  • reliable: Ang mga kakayahan ng AI ng Departamento ay magkakaroon ng tahasan, mahusay na tinukoy na mga paggamit, at ang kaligtasan, seguridad, at pagiging epektibo ng mga naturang kakayahan ay sasailalim sa pagsubok at katiyakan sa loob ng mga tinukoy na paggamit sa kanilang buong lifecycle.
  • Mapapamahalaan: Ang Departamento ay magdidisenyo at mag-iinhinyero ng mga kakayahan ng AI upang matupad ang kanilang mga nilalayon na pag-andar habang nagtataglay ng kakayahang makita at maiwasan ang mga hindi sinasadyang kahihinatnan, at ang kakayahang alisin o i-deactivate ang mga naka-deploy na system na nagpapakita ng hindi sinasadyang pag-uugali.

Tinalakay ko rin ang iba't ibang mga kolektibong pagsusuri ng mga prinsipyo ng etika ng AI, kabilang ang pagsaklaw sa isang set na ginawa ng mga mananaliksik na nagsuri at nagkondensasyon sa kakanyahan ng maraming pambansa at internasyonal na mga alituntunin sa etika ng AI sa isang papel na pinamagatang "The Global Landscape Of AI Ethics Guidelines" (nai-publish sa Kalikasan), at tinutuklasan ng aking saklaw sa ang link dito, na humantong sa listahan ng keystone na ito:

  • Aninaw
  • Katarungan at Pagkamakatarungan
  • Non-Maleficence
  • Pananagutan
  • Privacy
  • Pagkabenta
  • Kalayaan at Autonomy
  • Pagkatiwalaan
  • Pagpapanatili
  • Dignidad
  • Pagkakaisa

Tulad ng maaari mong direktang hulaan, ang pagsisikap na i-pin down ang mga detalye na pinagbabatayan ng mga prinsipyong ito ay maaaring maging lubhang mahirap gawin. Higit pa rito, ang pagsisikap na gawing isang bagay na ganap na nahahawakan at sapat na detalyadong magagamit kapag gumagawa ng mga AI system ay mahirap ding basagin. Madaling gawin sa pangkalahatan ang ilang handwaving tungkol sa kung ano ang mga alituntunin ng AI Ethics at kung paano dapat itong sundin sa pangkalahatan, habang ito ay isang mas kumplikadong sitwasyon sa AI coding na kailangang maging ang tunay na goma na nakakatugon sa kalsada.

Ang mga prinsipyo ng AI Ethics ay dapat gamitin ng mga developer ng AI, kasama ang mga namamahala sa mga pagsusumikap sa pagpapaunlad ng AI, at maging ang mga sa huli ay naglalagay at nagsasagawa ng pangangalaga sa mga AI system. Ang lahat ng mga stakeholder sa buong AI life cycle ng pag-unlad at paggamit ay isinasaalang-alang sa loob ng saklaw ng pagsunod sa mga itinatag na pamantayan ng Ethical AI. Ito ay isang mahalagang highlight dahil ang karaniwang pagpapalagay ay ang "mga coder lamang" o ang mga nagprograma sa AI ay napapailalim sa pagsunod sa mga paniwala sa AI Ethics. Gaya ng naunang sinabi, kailangan ng isang nayon upang makabuo at maglagay ng AI, at kung saan ang buong nayon ay dapat sanay at sumunod sa mga tuntunin ng AI Ethics.

Siguraduhin din natin na tayo ay nasa parehong pahina tungkol sa likas na katangian ng AI ngayon.

Walang anumang AI ngayon na nakakaramdam. Wala kaming ganito. Hindi namin alam kung magiging posible ang sentient AI. Walang sinuman ang maaaring mahuhulaan kung makakamit natin ang sentient AI, o kung ang sentient AI ay kahit papaano ay miraculously kusang lalabas sa isang anyo ng computational cognitive supernova (karaniwang tinutukoy bilang ang singularity, tingnan ang aking coverage sa ang link dito).

Ang uri ng AI na pinagtutuunan ko ng pansin ay binubuo ng non-sentient AI na mayroon tayo ngayon. Kung gusto nating mag-isip-isip tungkol sa nagbabago AI, ang talakayang ito ay maaaring pumunta sa ibang direksyon. Ang isang pakiramdam na AI ay dapat na may kalidad ng tao. Kailangan mong isaalang-alang na ang sentient AI ay ang cognitive equivalent ng isang tao. Higit pa rito, dahil ang ilan ay nag-iisip na maaari tayong magkaroon ng super-intelligent na AI, maiisip na ang naturang AI ay maaaring maging mas matalino kaysa sa mga tao (para sa aking paggalugad ng super-intelligent na AI bilang isang posibilidad, tingnan ang ang coverage dito).

Panatilihin natin ang mga bagay na mas down to earth at isaalang-alang ang computational non-sentient AI ngayon.

Napagtanto na ang AI ngayon ay hindi nagagawang "mag-isip" sa anumang paraan na katumbas ng pag-iisip ng tao. Kapag nakipag-ugnayan ka kay Alexa o Siri, ang mga kakayahan sa pakikipag-usap ay maaaring mukhang katulad ng mga kapasidad ng tao, ngunit ang katotohanan ay ito ay computational at walang katalinuhan ng tao. Ang pinakabagong panahon ng AI ay gumawa ng malawakang paggamit ng Machine Learning (ML) at Deep Learning (DL), na gumagamit ng computational pattern matching. Ito ay humantong sa mga AI system na may hitsura ng mga proclivities na tulad ng tao. Samantala, walang anumang AI ngayon na may kamukha ng sentido komun at wala ring anumang nakakaisip na pagtataka ng matatag na pag-iisip ng tao.

Ang ML/DL ay isang anyo ng computational pattern matching. Ang karaniwang diskarte ay ang mag-ipon ka ng data tungkol sa isang gawain sa paggawa ng desisyon. Ipapakain mo ang data sa mga modelo ng ML/DL computer. Ang mga modelong iyon ay naghahangad na makahanap ng mga pattern ng matematika. Matapos mahanap ang gayong mga pattern, kung ito ay natagpuan, gagamitin ng AI system ang mga pattern na iyon kapag nakatagpo ng bagong data. Sa pagtatanghal ng bagong data, ang mga pattern na batay sa "luma" o makasaysayang data ay inilapat upang mag-render ng kasalukuyang desisyon.

Sa tingin ko maaari mong hulaan kung saan ito patungo. Kung ang mga tao na gumagawa ng pattern sa mga desisyon ay nagsasama ng mga hindi kanais-nais na pagkiling, malamang na ang data ay nagpapakita nito sa banayad ngunit makabuluhang mga paraan. Ang Machine Learning o Deep Learning computational pattern matching ay susubukan lang na mathematically gayahin ang data nang naaayon. Walang pagkakahawig ng sentido komun o iba pang nakikitang aspeto ng AI-crafted modeling per se.

Higit pa rito, maaaring hindi napagtanto ng mga developer ng AI kung ano ang nangyayari. Ang arcane mathematics sa ML/DL ay maaaring magpahirap sa pag-iwas sa mga nakatagong bias ngayon. Nararapat kang umasa at aasahan na ang mga developer ng AI ay susubok para sa mga potensyal na nakabaon na bias, kahit na ito ay mas nakakalito kaysa sa tila. Mayroong matatag na pagkakataon na kahit na may medyo malawak na pagsubok na magkakaroon pa rin ng mga bias na naka-embed sa loob ng mga pattern na tumutugma sa mga modelo ng ML/DL.

Medyo maaari mong gamitin ang sikat o kasumpa-sumpa na kasabihan ng garbage-in garbage-out. Ang bagay ay, ito ay mas katulad sa mga biases-in na insidiously makakuha infused bilang biases lumubog sa loob ng AI. Ang algorithm na paggawa ng desisyon (ADM) ng AI ay axiomatically nagiging puno ng hindi pagkakapantay-pantay.

Hindi maganda.

Itali natin ito sa tanong tungkol sa mapagkakatiwalaang AI

Tiyak na hindi kami magiging handa na magtiwala sa AI na nagpapakita ng masamang pagkiling at mga pagkilos na may diskriminasyon. Ang aming paniniwala, sa sitwasyong iyon, ay tiyak na hindi mapagkakatiwalaan ang naturang AI, sa gayon kami ay sasandal sa aktibong kawalan ng tiwala sa AI. Nang hindi lumalampas sa isang anthropomorphic na paghahambing (magsasabi ako ng higit pa tungkol sa AI anthropomorphizing sa isang sandali), ang isang tao na nagpakita ng hindi kanais-nais na mga bias ay sasailalim din sa rating bilang hindi partikular na mapagkakatiwalaan.

Paghuhukay sa Tiwala At Pagkakatiwalaan

Marahil ay dapat nating tingnan kung ano ang ibig nating sabihin kapag iginigiit na tayo ay nagtitiwala o hindi nagtitiwala sa isang tao o isang bagay. Una, isaalang-alang ang ilang pang-araw-araw na kahulugan ng diksyunaryo ng tiwala.

Ang mga halimbawa ng kahulugan ng pagtitiwala ay:

  • Paniguradong pag-asa sa karakter, kakayahan, lakas, o katotohanan ng isang tao o isang bagay (Merriam-Webster online na diksyunaryo).
  • Pagtitiwala sa integridad, lakas, kakayahan, katiyakan, atbp., ng isang tao o bagay (Dictionary.com)
  • Matibay na paniniwala sa pagiging maaasahan, katotohanan, kakayahan, o lakas ng isang tao o isang bagay (Oxford Languages ​​online na diksyunaryo).

Gusto kong ipahiwatig na ang lahat ng mga kahulugang iyon ay tumutukoy sa "isang tao" at gayundin ay tumutukoy sa "isang bagay" bilang potensyal na mapagkakatiwalaan. Ito ay kapansin-pansin dahil maaaring igiit ng ilan na tayo ay nagtitiwala lamang sa mga tao at na ang pagkilos ng pagtitiwala ay nakalaan lamang para sa sangkatauhan bilang ating target ng pagiging mapagkakatiwalaan. Hindi kaya. Maaari kang magkaroon ng tiwala sa iyong toaster sa kusina. Kung mukhang mapagkakatiwalaan itong gumawa ng iyong toast at regular na ginagawa ito, tiyak na magkakaroon ka ng tiwala kung ang toaster ay talagang mapagkakatiwalaan.

Sa parehong linya ng pag-iisip, ang AI ay maaari ding maging paksa ng aming pananaw sa tiwala. Ang mga posibilidad ay ang pagtitiwala na nauugnay sa AI ay magiging mas kumplikado kaysa sa isang pangkaraniwang toaster. Ang isang toaster ay kadalasang makakagawa lamang ng ilang mga aksyon. Ang isang AI system ay malamang na maging mas kumplikado at mukhang gumagana nang hindi gaanong malinaw. Ang aming kakayahang masuri at tiyakin ang pagiging mapagkakatiwalaan ng AI ay tiyak na magiging mas mahirap at mag-aalok ng mga natatanging hamon.

Bukod sa pagiging mas kumplikado, ang isang tipikal na AI system ay sinasabing non-deterministic at potensyal na self-regulating o self-adjusting. Maaari nating tuklasin nang maikli ang paniwalang iyon.

Ang isang deterministic na makina ay madalas na gawin ang parehong mga bagay nang paulit-ulit, predictably at may isang viably discernable pattern ng kung paano ito gumagana. Maaari mong sabihin na ang isang karaniwang toaster ay humigit-kumulang sa parehong paraan at may mga kontrol sa pag-toast na nagmo-moderate ng toaster, na lahat ay karaniwang nahuhulaan ng taong gumagamit ng toaster. Sa kabaligtaran, ang mga kumplikadong AI system ay madalas na ginawa upang maging hindi deterministiko, ibig sabihin ay maaari silang gumawa ng ibang bagay na higit pa sa inaasahan mo. Ito ay maaaring bahagyang palakihin pa kung ang AI ay isinulat upang i-adjust ang sarili nito, isang aspeto na maaaring magbigay-daan sa AI na umunlad sa kaso ng ML/DL, bagaman maaari ring maging sanhi ng pagkabalisa ng AI o pumasok sa mga ranggo. ng kasamaan ng AI. Maaaring hindi mo alam kung ano ang tumama sa iyo, sa isang paraan ng pagsasalita, dahil ikaw ay nahuli nang buo sa mga aksyon ng AI.

Ano ang maaari nating gawin upang subukan at ilapit ang AI sa pagiging mapagkakatiwalaan?

Ang isang diskarte ay binubuo ng pagsisikap na matiyak na ang mga nagtatayo at naglalagay ng AI ay sumusunod sa isang hanay ng mga alituntunin sa AI Ethics. Gaya ng binanggit ng mga mananaliksik na ito ng AI: “Ang tiwala ay isang saloobin na ang isang ahente ay kikilos gaya ng inaasahan at maaaring maasahan upang maabot ang layunin nito. Nasisira ang tiwala pagkatapos ng pagkakamali o hindi pagkakaunawaan sa pagitan ng ahente at ng nagtitiwala na indibidwal. Ang sikolohikal na estado ng pagtitiwala sa AI ay isang umuusbong na pag-aari ng isang kumplikadong sistema, kadalasang kinasasangkutan ng maraming mga siklo ng disenyo, pagsasanay, pag-deploy, pagsukat ng pagganap, regulasyon, muling pagdidisenyo, at muling pagsasanay” (ipinahiwatig sa Komunikasyon ng ACM, "Trust, Regulation, and Human-in-the-Loop AI Within the European Region" nina Stuart Middleton, Emmanuel Letouze, Ali Hossaini, at Adriane Chapman, Abril 2022).

Ang diwa ay kung maaari nating makuha ang mga developer ng AI na sumunod sa Ethical AI, sana ay magtatapos sila sa paggawa ng mapagkakatiwalaang AI. Lahat ito ay mabuti at mabuti, ngunit tila hindi praktikal sa isang tunay na batayan, bagama't ito ay talagang isang landas na nagkakahalaga ng pagtahak.

Narito ang ibig kong sabihin.

Ipagpalagay na ang isang masigasig na pagsisikap ay ginawa ng mga developer ng AI na gumagawa ng isang AI system para sa ilang layunin na karaniwang tatawagin nating X. Maingat nilang tinitiyak na ang AI ay sumusunod sa transparency precepts ng AI Ethics. Masigasig nilang tinitiyak na ang privacy ay angkop na binuo sa AI. Para sa halos lahat ng karaniwang mga prinsipyo ng AI Ethics, lubos na tinitiyak ng mga tagabuo ng AI na natutugunan ng AI ang ibinigay na tuntunin.

Dapat mo na bang pagkatiwalaan ang AI na iyon?

Pahintulutan akong tumulong sa pagpasok ng iyong mga saloobin sa bukas na tanong na iyon.

Lumalabas na nagawa ng mga cyber crook na makalusot sa AI at palihim na nakuha ang AI na magsagawa ng X at pinapakain din ang mga cyber hacker ng lahat ng data na kinokolekta ng AI. Sa pamamagitan ng paggawa nito, ang mga masasamang ito ay mapanlinlang na binabawasan ang tuntunin sa privacy. Hindi mo alam na ito ay nangyayari sa ilalim ng hood ng AI.

Gamit ang idinagdag na piraso ng impormasyon, itatanong ko sa iyo muli ang parehong tanong.

Nagtitiwala ka ba sa AI na iyon?

Naglakas-loob akong sabihin na ang karamihan sa mga tao ay agad na magpahayag na tiyak na ginagawa nila ito hindi magtiwala sa partikular na AI na ito. Baka kanina pa nila ito pinagkatiwalaan. Pinipili na nila ngayon na hindi na ituring na mapagkakatiwalaan ang AI.

Ang ilang mahahalagang insight batay sa simpleng halimbawang ito ay karapat-dapat pag-isipan:

  • Dynamics of Trust. Kahit na ang pinakamainam na intensyon upang masakop ang lahat ng mga batayan ng pagtiyak na ang AI Ethics ay binuo sa isang AI system ay hindi garantiya kung ano ang maaaring maging o maging ang AI. Kapag nagamit na ang AI, posibleng masira ng mga tagalabas ang mga naipon na Ethical AI.
  • Pagbawas ng Tiwala Mula sa Loob. Ang pagkilos ng pagbawas sa pagiging mapagkakatiwalaan ay hindi kinakailangang maging tagalabas. Ang isang tagaloob na gumagawa ng regular na pangangalaga sa AI system ay maaaring magkamali at magpahina sa AI patungo sa pagiging hindi mapagkakatiwalaan. Maaaring walang alam ang AI developer na ito tungkol sa kanilang ginawa.
  • Hindi sinasadyang mga Kompromiso ng Pagtitiwala. Ang isang self-adjusting o self-regulating AI ay maaaring minsang mag-adjust sa sarili nito at lumihis sa hindi mapagkakatiwalaang teritoryo. Marahil ay sinusubukan ng AI na palakasin ang transparency ng AI ngunit sabay-sabay at hindi naaangkop na nakompromiso ang mga aspeto ng privacy.
  • Pagkalat Ng Tiwala. Ang pagsisikap na makamit ang lahat ng mga alituntunin ng AI Ethics sa parehong sukdulang antas ng pagiging mapagkakatiwalaan ay kadalasang hindi madaling mabuhay dahil madalas silang nasa cross-purposes o may iba pang likas na potensyal na salungatan. Ito ay medyo idealized na pananaw upang maniwala na ang lahat ng Ethical AI precepts ay dreamily aligned at lahat ay maaaring maabot sa ilang pantay na maximizable degree.
  • Ang Pagtitiwala ay Maaaring Magkamahalan Upang Makamit. Relatibong mataas ang gastos upang subukan at makamit ang isang topnotch semblance ng mapagkakatiwalaang AI sa pamamagitan ng pagsasagawa ng iba't ibang malawak at kumpletong hakbang at pagsunod sa litanya ng mga prinsipyo ng AI Ethics. Madali mong mapagtatalunan na ang gastos ay magiging mahirap sa mga tuntunin ng paggamit ng ilang AI system na kung hindi man ay may mahalagang halaga sa lipunan, kahit na ang AI ay masasabi nating hindi perpekto mula sa isang pagnanais na mapagkakatiwalaan.
  • At iba pa.

Huwag maling interpretasyon ang mga naunang pangungusap upang magmungkahi na kahit papaano ay dapat nating iwasan ang pagsisikap na lubusang bumuo at maglagay ng mapagkakatiwalaang AI. Itatapon mo ang sanggol gamit ang tubig na pampaligo, kumbaga. Ang tamang interpretasyon ay kailangan nating gawin ang mga mapagkakatiwalaang aktibidad na iyon upang makuha ang AI sa isang mapagkakatiwalaang pagsasaalang-alang, ngunit iyon lamang ay hindi isang lunas-lahat o isang pilak na bala.

Mga Multi-Prong Path Patungo sa Mapagkakatiwalaang AI

May mga mahalagang karagdagang multi-pronged na paraan upang magsikap patungo sa mapagkakatiwalaang AI.

Halimbawa, gaya ng nauna ko nang tinakpan sa aking mga column, isang napakaraming mga bagong umuusbong na batas at regulasyon tungkol sa AI ay naglalayong himukin ang mga gumagawa ng AI tungo sa pagbuo ng mapagkakatiwalaang AI, tingnan ang link dito at ang link dito.

Ang mga legal na guardrail na ito ay mahalaga bilang isang pangkalahatang paraan ng pagtiyak na ang mga gumagawa ng AI ay ganap na mananagot para sa kanilang AI. Kung wala ang mga potensyal na legal na remedyo at legal na mga parusa, ang mga nagmamadali sa AI sa marketplace ay malamang na magpatuloy sa paggawa nito nang may kaunti kung anumang seryosong pagsasaalang-alang para sa pagkamit ng mapagkakatiwalaang AI. Maaari kong kapansin-pansing idagdag, na kung ang mga batas at regulasyong iyon ay hindi maganda ang pagkakagawa o hindi sapat na ipinatupad, maaari nilang ikinalulungkot na bawasan ang paghahangad ng mapagkakatiwalaang AI, marahil sa kabalintunaan at kakaibang pagpapaunlad ng hindi mapagkakatiwalaang AI kaysa sa mapagkakatiwalaang AI (tingnan ang aking mga talakayan sa column para sa karagdagang paliwanag).

Ako rin ay naging isang matibay na tagapagtaguyod para sa kung ano ang masigasig kong tinutukoy AI guardian angel bots (tingnan ang aking coverage sa ang link dito). Ito ay isang paparating na paraan o diskarte ng pagsisikap na labanan ang apoy sa pamamagitan ng apoy, katulad ng paggamit ng AI upang tulungan kami sa pakikitungo sa iba pang AI na maaaring mapagkakatiwalaan o hindi.

Una, ang ilang konteksto sa background ay magiging kapaki-pakinabang.

Ipagpalagay na pipiliin mong umasa sa isang AI system na hindi ka sigurado sa pagiging mapagkakatiwalaan nito. Ang isang pangunahing alalahanin ay maaaring ikaw ay nag-iisa sa iyong mga pagtatangka upang malaman kung ang AI ay mapagkakatiwalaan o hindi. Ang AI ay posibleng mas mabilis sa computation kaysa sa iyo at maaaring samantalahin ka. Kailangan mo ng isang tao o isang bagay sa iyong panig upang tumulong.

Ang isang pananaw ay dapat palaging mayroong human-in-the-loop na magsisilbing tulungan ka habang ginagamit mo ang isang AI system. Bagaman ito ay isang problemadong solusyon. Kung gumagana ang AI sa real-time, na tatalakayin natin sandali pagdating sa pagdating ng mga self-driving na sasakyan na nakabatay sa AI, maaaring hindi sapat ang pagkakaroon ng human-in-the-loop. Ang AI ay maaaring kumikilos nang real-time at sa oras na ang isang itinalagang human-in-the-loop ay pumasok sa larawan upang malaman kung ang AI ay gumagana nang maayos, isang sakuna na resulta ay maaaring naganap na.

Bilang isang tabi, ito ay nagdadala ng isa pang kadahilanan tungkol sa pagtitiwala. Karaniwan kaming nagtatalaga ng antas ng tiwala batay sa konteksto o pangyayari na aming kinakaharap. Maaari mong lubos na pagkatiwalaan ang iyong paslit na anak na lalaki o babae na maging tapat sa iyo, ngunit kung ikaw ay nagha-hiking at magpasiya na umasa sa sanggol na sabihin sa iyo kung ligtas bang tumapak sa gilid ng isang bangin, sa palagay ko magiging matalino ka. upang isaalang-alang kung ang sanggol ay maaaring magbigay ng ganoong uri ng payo sa buhay-o-kamatayan. Maaaring gawin ito ng bata nang taimtim at taos-puso, at gayunpaman, ay hindi makapagbigay ng ganoong payo nang sapat.

Ang parehong paniwala ay nauugnay sa pagtitiwala pagdating sa AI. Ang isang AI system na iyong ginagamit sa paglalaro ng mga pamato o chess ay malamang na hindi kasama sa anumang mga deliberasyon sa buhay-o-kamatayan. Maaari kang maging mas madali sa iyong pagtatalaga ng pagtitiwala. Ang isang AI-based na self-driving na kotse na bumababa sa isang highway sa matataas na bilis ay nangangailangan ng mas masipag na antas ng pagtitiwala. Ang pinakamaliit na blip ng AI driving system ay maaaring direktang humantong sa iyong kamatayan at pagkamatay ng iba.

Sa isang nai-publish na panayam ni Beena Ammanath, Executive Director ng Global Deloitte AI Institute at may-akda ng libro Mapagkakatiwalaang AI, isang katulad na diin sa pagsasaalang-alang sa kontekstwal na mga aspeto kung saan nanggagaling ang pagiging mapagkakatiwalaan ng AI: “Kung bubuo ka ng solusyon sa AI na gumagawa ng pagsusuri sa pasyente, ang pagiging patas at pagkiling ay sobrang mahalaga. Ngunit kung gagawa ka ng algorithm na hinuhulaan ang pagkabigo ng jet engine, hindi gaanong mahalaga ang pagiging patas at pagkiling. Ang mapagkakatiwalaang AI ay talagang isang istraktura upang makapagsimula kang mag-isip tungkol sa mga sukat ng tiwala sa loob ng iyong organisasyon” (VentureBeat, Marso 22, 2022).

Kapag tinatalakay ang mapagkakatiwalaang AI, maaari mong bigyang-kahulugan ang paksang ito sa maraming paraan.

Halimbawa, mapagkakatiwalaan AI ay isang bagay na tinitingnan nating lahat bilang isang kanais-nais at aspirational na layunin, ibig sabihin, na dapat nating pagnanais na gumawa at magpahayag ng mapagkakatiwalaang AI. May isa pang paggamit ng catchphrase. Ang isang medyo alternatibong paggamit ay iyon mapagkakatiwalaan AI ay isang estado ng kundisyon o pagsukat, na maaaring igiit ng isang tao na gumawa sila ng AI system na isang halimbawa ng mapagkakatiwalaang AI. Maaari mo ring gamitin ang parirala mapagkakatiwalaan AI upang magmungkahi ng isang paraan o diskarte na maaaring magamit upang makuha ang pagiging mapagkakatiwalaan ng AI. atbp.

Sa isang kaugnay na tala, nagtitiwala ako na napagtanto mo na hindi lahat ng AI ay pareho at kailangan nating maging maingat na huwag gumawa ng mga blankong pahayag tungkol sa lahat ng AI. Ang isang partikular na AI system ay malamang na malaki ang pagkakaiba sa isa pang AI system. Ang isa sa mga AI system na iyon ay maaaring lubos na mapagkakatiwalaan, habang ang isa ay maaaring bahagyang mapagkakatiwalaan. Maging maingat sa anumang paraan sa pagpapalagay na ang AI ay isang monolith na maaaring lubos na mapagkakatiwalaan o ganap na hindi mapagkakatiwalaan.

Hindi ito ang kaso.

Gusto kong sa susunod na maikling saklawin ang ilan sa aking patuloy na pananaliksik tungkol sa mapagkakatiwalaang AI na maaari mong makitang interesante, na sumasaklaw sa paparating na papel ng AI guardian angel bots.

Narito kung paano ito napupunta.

Ikaw ay armado ng isang AI system (isang AI guardian angel bot) na ginawa upang masukat ang pagiging mapagkakatiwalaan ng ilang iba pang AI system. Ang AI guardian angel bot ay ang pangunahing nakatutok sa iyong kaligtasan. Isipin mo ito na parang mayroon kang paraan upang subaybayan ang AI na iyong inaasahan sa pamamagitan ng pagkakaroon ng ibang AI system sa iyong totoong bulsa, marahil ay tumatakbo sa iyong smartphone o iba pang mga ganoong device. Ang iyong kilalang tagapag-alaga ng AI ay maaaring mag-compute sa batayan na ginagawa din ng AI na iyong pinagkakatiwalaan, gumagana sa mabilis na bilis at pagkalkula ng sitwasyon sa kamay sa real-time, na mas mabilis kaysa sa isang tao-in-the-loop na maaaring gawin ito.

Maaari mong sa unang tingin ay iniisip mo na ang AI na iyong pinagkakatiwalaan ay dapat magkaroon ng ilan panloob AI guardrails na katulad nito sa hiwalay na pagkalkula ng AI guardian angel bot. Oo, iyon ay tiyak na naisin. Ang isang kahina-hinala ay ang AI guardrails na binuo sa isang AI system ay maaaring maging integral at prejudicially aligned sa AI per se, kaya ang dapat na AI guardrail ay hindi na magagawang independyenteng i-verify o mapatunayan ang AI.

Ang magkaibang ideya ay ang iyong AI guardian angel bot ay isang independent o third-party na mekanismo ng AI na naiiba sa AI na iyong pinagkakatiwalaan. Ito ay nasa labas ng iba pang AI, na nananatiling nakatuon sa iyo at hindi nakatuon sa AI na sinusubaybayan o tinatasa.

Ang isang tuwirang paraan ng pag-iisip tungkol dito ay maaaring ipahayag sa pamamagitan ng mga sumusunod na pinasimple na tulad-equation na mga pahayag. Maaari naming sabihin na ang "P" ay gustong magtiwala sa "R" na gawin ang isang partikular na gawain "X":

Ito ang magiging sumusunod kapag mga tao lang ang sangkot:

  • Pinagkakatiwalaan ng Tao P ang taong R na gawin ang gawain X.

Kapag pinili naming umasa sa AI, ang pahayag ay muling nahuhubog dito:

  • Pinagkakatiwalaan ng Tao P ang AI instance-R na gawin ang gawain X.

Maaari naming idagdag ang AI guardian angel bot sa pamamagitan ng pagsasabi nito:

  • Pinagkakatiwalaan ng Tao P ang AI instance-R na gawin ang task X bilang sinusubaybayan ng AI guardian angel bot instance-Z

Ang AI guardian angel bot ay walang kapaguran at walang humpay na tinatasa ang AI na iyong inaasahan. Dahil dito, maaaring alertuhan ka ng iyong madaling-gamiting AI na tagapag-alaga na ang tiwala ng isa pang AI na ito ay hindi nararapat. O, maaaring makipag-ugnayan sa elektronikong paraan ang AI guardian sa isa pang AI upang subukan at matiyak na ang anumang pagkakaiba mula sa pagiging mapagkakatiwalaan ay mabilis na naitama, at iba pa (tingnan ang aking saklaw sa mga naturang detalye sa ang link dito).

Ang Trusty Trust Reservoir Metaphor

Dahil tinatalakay namin ang iba't ibang antas ng pagtitiwala, maaari kang gumamit ng isang madaling gamitin na metapora tungkol sa pagiging mapagkakatiwalaan sa pamamagitan ng pag-iisip ng tiwala bilang isang uri ng reservoir.

Mayroon kang isang tiyak na halaga ng tiwala para sa isang partikular na tao o bagay sa isang partikular na pangyayari sa isang partikular na punto ng oras. Ang antas ng tiwala ay tataas o bababa, depende sa kung ano pa ang mangyayari na may kaugnayan sa partikular na tao o bagay na iyon. Ang tiwala ay maaaring nasa zero level kapag wala kang tiwala kahit ano para sa tao o bagay. Ang pagtitiwala ay maaaring maging negatibo kapag nakipagsapalaran ka sa kawalan ng tiwala sa taong iyon o bagay.

Sa kaso ng mga AI system, ang iyong trust reservoir para sa partikular na AI na iyong pinagkakatiwalaan sa isang partikular na sitwasyon ay tataas o bababa bilang nakadepende sa iyong pagsukat sa pagiging mapagkakatiwalaan ng AI. Kung minsan, maaaring alam mo ang iba't ibang antas ng tiwala na ito tungkol sa AI, habang sa ibang mga pagkakataon ay maaaring hindi ka gaanong nalalaman at higit pa sa pamamagitan ng paghuhusga tungkol sa pagiging mapagkakatiwalaan.

Kasama sa mga paraan na tinalakay namin dito ang mga paraan upang mapalakas ang mga antas ng tiwala para sa AI:

  • Pagsunod sa AI Ethics. Kung ang AI na iyong pinagkakatiwalaan ay ginawa sa pamamagitan ng pagsubok na sumunod sa wastong mga alituntunin sa AI Ethics, malamang na gagamitin mo ang pag-unawang ito upang palakasin ang antas ng iyong trust reservoir para sa partikular na AI system. Bilang isang side note, posible rin na maaari mong i-generalize sa iba pang mga AI system ang tungkol sa kanilang pagiging mapagkakatiwalaan, gayundin, kahit na minsan ito ay isang mapanlinlang na anyo ng tinatawag kong AI trust aura na kumakalat (maging maingat sa paggawa nito!).
  • Gumamit ng Human-In-The-Loop. Kung ang AI ay may human-in-the-loop, maaari mong positibong idagdag ang iyong nakikitang tiwala sa AI.
  • Magtatag ng mga Batas at Regulasyon. Kung may mga batas at regulasyong nauugnay sa partikular na uri ng AI na ito, maaari mo ring palakasin ang iyong antas ng tiwala.
  • Gumamit ng AI Guardian Angel Bot. Kung mayroon kang AI guardian angel bot na nakahanda, ito rin ay magpapataas ng iyong antas ng tiwala.

Gaya ng nabanggit kanina, ang tiwala ay maaaring maging malutong at masira sa isang iglap (ibig sabihin, ang trust reservoir ay mabilis at biglang natapon ang lahat ng built-up na trust).

Isipin na ikaw ay nasa loob ng isang AI-based na self-driving na kotse at ang AI na nagmamaneho ay biglang gumawa ng isang radikal na pagliko sa kanan, na nagiging sanhi ng mga gulong na humirit at halos pilitin ang autonomous na sasakyan sa isang mapanganib na rollover. Ano ang mangyayari sa iyong antas ng pagtitiwala? Mukhang kahit na dati mong hinawakan ang AI sa isang mas mataas na antas ng tiwala, kapansin-pansing at bigla mong ibababa ang iyong antas ng tiwala, kaya naman.

Sa yugtong ito ng mabigat na talakayan na ito, tataya ako na gusto mo ng karagdagang mga halimbawa ng paglalarawan na maaaring magpakita ng kalikasan at saklaw ng mapagkakatiwalaang AI. Mayroong isang espesyal at tiyak na sikat na hanay ng mga halimbawa na malapit sa aking puso. Nakikita mo, sa aking kapasidad bilang isang dalubhasa sa AI kasama ang etikal at legal na mga epekto, madalas akong hinihiling na tukuyin ang mga makatotohanang halimbawa na nagpapakita ng mga dilemma ng AI Ethics upang ang medyo teoretikal na katangian ng paksa ay mas madaling maunawaan. Ang isa sa mga pinaka-nakakapukaw na mga lugar na malinaw na nagpapakita ng etikal na problema sa AI ay ang pagdating ng AI-based na tunay na self-driving na mga kotse. Ito ay magsisilbing isang madaling gamiting kaso o halimbawa para sa sapat na talakayan sa paksa.

Narito ang isang kapansin-pansing tanong na dapat pag-isipan: Ang pagdating ba ng AI-based na tunay na self-driving na mga kotse ay nagpapaliwanag ng anuman tungkol sa pagtugis ng mapagkakatiwalaang AI, at kung gayon, ano ang ipinapakita nito?

Bigyan mo ako ng ilang sandali na i-unpack ang tanong.

Una, tandaan na walang taong driver na kasangkot sa isang tunay na self-driving na kotse. Tandaan na ang mga totoong self-driving na kotse ay hinimok sa pamamagitan ng AI driving system. Hindi na kailangan ng taong nagmamaneho sa gulong, at walang probisyon para sa tao na magmaneho ng sasakyan. Para sa aking malawak at patuloy na saklaw ng Autonomous Vehicles (AVs) at lalo na ang mga self-driving na sasakyan, tingnan ang ang link dito.

Gusto kong linawin pa kung ano ang ibig sabihin kapag tinutukoy ko ang mga totoong self-driving na kotse.

Pag-unawa sa Mga Antas Ng Mga Kotse na Nagmamaneho ng Sarili

Bilang paglilinaw, ang mga tunay na self-driving na kotse ay ang mga kung saan ang AI ang ganap na nagmamaneho sa kotse nang mag-isa at walang anumang tulong ng tao sa panahon ng gawain sa pagmamaneho.

Ang mga sasakyang walang driver na ito ay itinuturing na Antas 4 at Antas 5 (tingnan ang aking paliwanag sa ang link na ito dito), habang ang isang kotse na nangangailangan ng isang tao na driver na magbahagi ng pagsisikap sa pagmamaneho ay karaniwang isinasaalang-alang sa Antas 2 o Antas 3. Ang mga kotse na nagbabahagi ng gawain sa pagmamaneho ay inilalarawan bilang semi-autonomous, at karaniwang naglalaman ng iba't ibang uri ng mga awtomatikong add-on na tinutukoy bilang ADAS (Advanced Driver-Assistance Systems).

Wala pang totoong self-driving na kotse sa Level 5, at hindi pa namin alam kung posible itong makamit, o kung gaano katagal bago makarating doon.

Samantala, ang mga pagsusumikap sa Antas 4 ay unti-unting nagsisikap na makakuha ng ilang traksyon sa pamamagitan ng pagsailalim sa napakakitid at piling mga pagsubok sa pampublikong daanan, kahit na mayroong kontrobersya kung ang pagsubok na ito ay dapat payagan per se (tayo ay lahat ng buhay-o-kamatayang guinea pig sa isang eksperimento nagaganap sa aming mga highway at byways, ang ilan ay nakikipaglaban, tingnan ang aking saklaw sa ang link na ito dito).

Dahil ang mga kotse na semi-autonomous ay nangangailangan ng isang driver ng tao, ang pag-aampon ng mga uri ng mga kotse ay hindi magkakaiba sa iba kaysa sa pagmamaneho ng mga maginoo na sasakyan, kaya't hindi gaanong bago ang bawat se upang masakop ang tungkol sa mga ito sa paksang ito (bagaman, tulad ng makikita mo sa isang iglap, ang mga puntos na kasunod na ginawa ay karaniwang naaangkop).

Para sa mga semi-awtonomous na kotse, mahalaga na ang publiko ay kailangang paunang-hayag tungkol sa isang nakakagambalang aspeto na nagmula sa kani-kanina lamang, ibig sabihin, sa kabila ng mga driver ng tao na patuloy na nag-post ng mga video ng kanilang mga sarili na natutulog sa gulong ng isang Antas 2 o Antas 3 na kotse , kailangan nating lahat na maiwasan ang malinlang sa paniniwala na ang driver ay maaaring mag-alis ng kanilang pansin mula sa gawain sa pagmamaneho habang nagmamaneho ng isang semi-awtonomous na kotse.

Ikaw ang responsableng partido para sa mga aksyon sa pagmamaneho ng sasakyan, anuman ang maaaring awtomatikong ihulog sa isang Antas 2 o Antas 3.

Self-Driving Cars At Mapagkakatiwalaang AI

Para sa Antas 4 at Antas 5 tunay na mga sasakyan sa pagmamaneho sa sarili, walang magiging driver ng tao na kasangkot sa gawain sa pagmamaneho.

Lahat ng mga nasasakupan ay magiging mga pasahero.

Ang AI ay gumagawa ng pagmamaneho.

Ang isang aspeto na agad na tatalakayin ay nagsasaad ng katotohanan na ang AI na kasangkot sa mga AI system sa pagmamaneho ngayon ay hindi nagbabago. Sa madaling salita, ang AI ay kabuuan isang kolektibong pag-program na batay sa computer at mga algorithm, at walang katiyakan na hindi makatuwiran sa parehong pamamaraan na magagawa ng mga tao.

Bakit ito idinagdag na diin tungkol sa AI na hindi nagbabago?

Dahil nais kong bigyang diin na kapag tinatalakay ang papel ng system ng pagmamaneho ng AI, hindi ko inilahad ang mga katangian ng tao sa AI. Mangyaring magkaroon ng kamalayan na mayroong isang patuloy at mapanganib na pagkahilig sa mga araw na ito upang anthropomorphize AI. Sa esensya, ang mga tao ay nagtatalaga ng mala-tao na pakiramdam sa AI ngayon, sa kabila ng hindi maikakaila at hindi maikukuhang katotohanan na wala pang ganitong AI.

Sa paglilinaw na iyon, maaari mong isipin na ang AI sa pagmamaneho system ay hindi natural na kahit papaano ay "malaman" tungkol sa mga aspeto ng pagmamaneho. Ang pagmamaneho at lahat ng mga kinakailangan nito ay kailangang mai-program bilang bahagi ng hardware at software ng self-driving car.

Sumisid tayo sa napakaraming mga aspeto na maglaro sa paksang ito.

Una, mahalagang mapagtanto na hindi lahat ng AI self-driving na mga kotse ay pareho. Ang bawat automaker at self-driving tech firm ay gumagawa ng diskarte nito sa paggawa ng mga self-driving na kotse. Dahil dito, mahirap gumawa ng mga malawak na pahayag tungkol sa kung ano ang gagawin o hindi gagawin ng mga AI driving system.

Bukod dito, tuwing isinasaad na ang isang sistema ng pagmamaneho ng AI ay hindi gumagawa ng isang partikular na bagay, maaari itong, sa paglaon, ay abutan ng mga developer na sa katunayan ay program ang computer upang gawin ang bagay na iyon. Hakbang-hakbang, ang mga sistema ng pagmamaneho ng AI ay unti-unting napapabuti at pinalawak. Ang isang umiiral na limitasyon ngayon ay maaaring hindi na umiiral sa isang hinaharap na pag-ulit o bersyon ng system.

Pinagkakatiwalaan ko na nagbibigay ng isang sapat na litanya ng mga pag-uusap upang mabahayan kung ano ang malapit kong maiugnay.

Handa na kaming gumawa ng malalim na pagsisid sa mga self-driving na kotse at mapagkakatiwalaang AI.

Ang tiwala ay lahat, lalo na sa kaso ng mga self-driving na kotse na nakabatay sa AI.

Ang lipunan ay tila maingat na tumitingin sa paglitaw ng mga self-driving na kotse. Sa isang banda, may malaking pag-asa na ang pagdating ng tunay na self-driving na mga kotse ay nagpapakitang mababawasan ang bilang ng taunang mga pagkamatay na may kaugnayan sa sasakyan. Sa Estados Unidos lamang, may humigit-kumulang 40,000 taunang pagkamatay at humigit-kumulang 2.5 milyong pinsala dahil sa mga pagbangga ng sasakyan, tingnan ang aking koleksyon ng mga istatistika sa ang link dito. Ang mga tao ay umiinom at nagmamaneho. Ang mga tao ay nagmamaneho habang naliligalig. Ang gawain ng pagmamaneho ng kotse ay tila binubuo ng kakayahang paulit-ulit at hindi nagkakamali na tumuon sa pagmamaneho at maiwasan ang mga pagbangga sa kotse. Dahil dito, maaari tayong nananaginip na umaasa na ang mga sistema ng pagmamaneho ng AI ay gagabay sa mga self-driving na kotse nang paulit-ulit at hindi nagkakamali. Maaari mong bigyang-kahulugan ang mga self-driving na kotse bilang isang twofer, na binubuo ng pagbabawas ng dami ng mga pagkamatay at pinsala sa pagbangga ng sasakyan, kasama ang potensyal na gawing available ang kadaliang kumilos sa isang mas malawak at naa-access na batayan.

Ngunit ang pag-aalala samantala ay bumabalot sa mga pananaw ng lipunan kung ang mga self-driving na sasakyan ay magiging sapat na ligtas upang makarating sa aming mga pampublikong daanan sa pangkalahatan.

Kung kahit isang self-driving na kotse ay nabangga o nabangga na humahantong sa isang kamatayan o matinding pinsala, malamang na asahan mo na ang medyo binuong tiwala ngayon sa mga AI-based na driverless na sasakyan ay mabilis na babagsak. Nakita namin na nangyari ito nang maganap ang ngayon-nakakahiya na insidente sa Arizona na kinasasangkutan ng medyo (hindi talaga) self-driving na kotse na bumangga at pumatay sa isang pedestrian (tingnan ang aking saklaw sa ang link na ito dito).

Itinuturo ng ilang mga eksperto na hindi patas at hindi nararapat na ibatay ang tiwala ng mga self-driving na kotse ng AI sa aspeto na isa lang sa susunod na pag-crash o banggaan na nagbubunga ng kamatayan ang maaaring makasira sa mga pagsubok nang walang pag-crash sa pampublikong daanan. Bilang karagdagan, sa isang karagdagang hindi patas na batayan, ang posibilidad ay na kahit na anong partikular na AI self-driving na tatak ng kotse o modelo ay maaaring masangkot sa isang malungkot na insidente, ang lipunan ay hindi mapag-aalinlanganang sisihin ang lahat ng self-driving na tatak ng kotse.

Ang kabuuan ng mga self-driving na kotse ay maaaring masira at ang industriya sa kabuuan ay maaaring magdusa ng isang malaking backlash na humahantong sa isang posibleng pagsasara ng lahat ng mga pampublikong pagsubok sa kalsada.

Ang isang nag-aambag sa naturang blowback ay matatagpuan sa walang katuturang mga pahayag ng mga walang pigil na nagsasalita na self-driving car proponents na ang lahat ng walang driver na mga kotse ay hindi mabangga. Ang ideyang ito ng pagiging uncrashable ay hindi lamang tahasang mali (tingnan ang link dito), malikot itong nagse-set up ng self-driving na industriya ng kotse para sa isang ganap na out-of-whack na hanay ng mga inaasahan. Ang mga kakaiba at hindi makakamit na mga pahayag na ito na magkakaroon ng zero na kamatayan dahil sa mga self-driving na sasakyan ay nagpapasigla sa maling kuru-kuro na ang anumang pagbangga ng walang driver na sasakyan ay isang tiyak na senyales na ang buong kit at kaboodle ay walang kabuluhan.

May kakaibang kalungkutan na mapagtanto na ang pag-unlad tungo sa mga self-driving na mga kotse at ang inch-at-a-time na akumulasyon ng societal trust ay maaaring mawala sa isang iglap. Iyon ay magiging isang ano ba ng isang showcase tungkol sa lutong ng pagtitiwala.

Konklusyon

Maraming mga automaker at self-driving tech firm ang karaniwang sumusunod sa mga prinsipyo ng AI Ethics, na ginagawa ito upang subukan at bumuo at maglagay ng mapagkakatiwalaang AI sa mga tuntunin ng ligtas at maaasahang AI-based na self-driving na mga kotse. Pakitandaan na ang ilan sa mga kumpanyang iyon ay mas malakas at mas nakatuon sa mga tuntunin ng Etikal na AI kaysa sa iba. Mayroon ding mga paminsan-minsang fringe o newbie na self-driving na mga startup na may kaugnayan sa kotse na tila isinantabi ang karamihan sa mga pundasyon ng AI Ethics (tingnan ang aking pagsusuri sa ang link dito).

Sa iba pang larangan, ang mga bagong batas at regulasyon na sumasaklaw sa mga self-driving na kotse ay unti-unting inilalagay sa mga legal na aklat. Kung mayroon silang mga ngipin na kailangan upang i-back up ang mga ito ay ibang bagay, gayundin kung ang pagpapatupad ng mga batas na iyon ay sineseryoso o hindi pinapansin (tingnan ang aking mga column para sa mga pagsusuri tungkol dito).

Mayroon ding high-tech na anggulo dito. Hinulaan ko na unti-unti nating makikita ang mga variant ng AI guardian angel bots na mauuna sa autonomous vehicle at self-driving cars arena. Wala pa tayo. Ito ay magiging mas laganap kapag ang katanyagan ng mga self-driving na kotse ay naging mas laganap.

Ang huling puntong ito ay nagdadala ng isang sikat na linya tungkol sa pagtitiwala na walang alinlangan na alam mo na sa puso.

Magtiwala, ngunit i-verify.

Maaari nating payagan ang ating sarili na palawakin ang ating pagtitiwala, marahil ay mapagbigay. Samantala, dapat din tayong magbantay na parang lawin upang matiyak na ang pagtitiwala na ating ibibigay ay napatunayan sa pamamagitan ng salita at gawa. Maglagay tayo ng kaunting tiwala sa AI, ngunit walang katapusang i-verify na inilalagay natin ang ating tiwala nang naaangkop at nakadilat ang ating mga mata.

Mapagkakatiwalaan mo ako diyan.

Pinagmulan: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/