Ang AI Ethics At AI Law ay Maaring Isulong at Hikayatin sa Pag-uutos ng Mga Babala sa Kaligtasan sa Lahat ng Umiiral at Hinaharap na AI

Ang iyong mga pang-araw-araw na gawain ay walang alinlangan na binomba ng isang libo o higit pang mga babala sa pag-iingat ng isang uri o iba pa.

Subukan ang mga ito para sa laki:

  • Dapat na magsuot ng mga salaming pangkaligtasan sa lahat ng oras
  • Panganib: Mga mapanganib na kemikal sa malapit
  • Mataas na boltahe - Iwasan
  • Babala: Mag-ingat sa iyong paligid
  • Ang mga bagay sa salamin ay mas malapit kaysa sa kanilang hitsura
  • Alisin ang bata bago tiklupin (tulad ng nakasaad sa mga baby stroller)
  • Babala: Siguraduhing huwag pansinin ang mensaheng ito

Karamihan sa mga iyon ay madaling gamitin at lubos na maalalahanin na mga senyales o label na nagsisilbing panatilihing ligtas at ligtas tayo.

Mangyaring magkaroon ng kamalayan na nag-snuck ako ng ilang "outlier" sa listahan upang makagawa ng ilang kapansin-pansing mga punto.

Halimbawa, naniniwala ang ilang tao na nakakabaliw na ang mga baby stroller ay may nakakabit na label na nagbabala sa iyo na huwag tiklupin ang stroller habang ang sanggol ay nakaupo pa rin sa loob ng kagamitan. Kahit na ang tanda ay tiyak na angkop at masunurin na kapaki-pakinabang, tila sapat na ang pangunahing sentido komun.

Sinong tao ang hindi makakaalam sa kanilang sariling pag-iisip na kailangan muna nilang alisin ang sanggol?

Buweno, binibigyang-diin ng iba na ang mga naturang label ay nagsisilbi ng isang mahalagang layunin. Una, ang isang tao ay maaaring tunay na nakakalimutan na kailangan nilang alisin ang sanggol bago tiklupin ang andador. Marahil ay ipinapalagay ng tao na ang stroller ay maingat na idinisenyo upang matiyak na ang operasyon ng pagtitiklop ay hindi makakasama sa sanggol. O posibleng may mga built-in na safety feature na pumipigil sa pagtiklop sa tuwing may bata sa loob ng stroller. atbp.

Gayundin, maaaring ang tao ay nagambala at walang pag-iisip na itinupi ang andador, na sumasaklaw sa sanggol at lahat, ngunit ang etiketa sa kabutihang-palad ay nag-udyok sa tao na huwag gawin ito (ang ilan ay mangangatuwiran na tila malabong mapansin ng gayong tao ang label gayon pa man). Mayroon ding katotohanan na maaaring idemanda ng isang tao ang gumawa ng stroller kung walang ganoong label. Maaari mong isipin ang isa sa mga mabigat na kaso kung saan ang isang sanggol ay nasugatan at ang magulang ay nagpasya na makakuha ng isang milyong dolyar dahil ang stroller ay walang babala na nakalagay dito. Ikinalulungkot ng kumpanya ng stroller na hindi gumastos ng ilang sentimo na kailangan para gawin at idikit ang mga babalang palatandaan sa kanilang mga stroller.

Tingnan din nang mabuti ang huling mga mensahe ng babala na inilista ko sa itaas.

Pinili kong ilagay ang matalinong mensahe tungkol sa pagtiyak na huwag pansinin ang mensahe dahil maraming pekeng mga label ng babala na binibili o ginagawa ng mga tao para lamang sa kasiyahan sa mga araw na ito. Ang isang ito ay isang tunay na pilosopiko na mind-bender. Kung nabasa mo ang babala na nagsasabing huwag pansinin ang babala, ano ang eksaktong gagawin mo kapag nabasa mo ang babala? Nabasa mo na kaya nasa isip mo na. Oo naman, maaari mong balewalain ito, ngunit muli, hindi ka pinapayuhan kung ano ang dapat mong ipagwalang-bahala. Paikot-ikot, ang biro na ito.

Siyempre, ang mga bona fide na label ng babala ay hindi karaniwang biro o nakakatawa.

Dapat nating seryosohin ang mga babala.

Karaniwan, kung hindi ka sumunod sa isang nabanggit na babala, gagawin mo ito sa isang personal na matinding panganib. At, maaari rin na kung hindi mo sinusunod at susundin ang babala na maaari mong ilagay ang iba sa hindi nararapat na panganib. Isaalang-alang ang pagkilos ng pagmamaneho ng kotse. Sa sandaling ikaw ay nasa likod ng gulong ng isang kotse, ang iyong mga aksyon bilang driver ay maaaring makapinsala sa iyong sarili, at maaari mong saktan ang iyong mga pasahero, at maaari mong saktan ang iba tulad ng mga tao sa ibang mga sasakyan o mga kalapit na pedestrian. Sa ganoong kahulugan, ang isang babala ay hindi lamang para sa iyong kapakinabangan, ito ay malamang para sa kapakinabangan din ng iba.

Bakit ko sinasaklaw ang mga facet na ito ng mga babala at mga babala na label?

Dahil ang ilan ay mariing iginiit na kailangan natin ng mga babala at babala sa Artificial Intelligence (AI) ngayon.

Sa totoo lang, ang paniwala ay maglagay ng mga naturang label sa AI ngayon at sa hinaharap na AI din. Sa kabuuan, ang lahat ng AI ay magkakaroon ng ilang anyo o variant ng isang babala o babala na indikasyon na nauugnay dito.

Magandang ideya o masamang ideya?

Praktikal o hindi praktikal?

Sige at i-unpack natin ang paglilihi at tingnan kung ano ang magagawa natin dito.

Gusto ko munang maglatag ng ilang mahahalagang pundasyon tungkol sa AI at partikular na sa AI Ethics at AI Law, na ginagawa ito upang matiyak na ang paksa ng mga babala ng AI ay magiging makatuwiran ayon sa konteksto. Para sa inyo na karaniwang interesado sa Ethical AI at pati na rin sa AI Law, tingnan ang aking malawak at patuloy na saklaw sa ang link dito at ang link dito, Lamang upang pangalanan ang ilang.

Ang Tumataas na Kamalayan Ng Etikal AI At Gayundin AI Law

Ang kamakailang panahon ng AI ay unang tiningnan bilang pagiging AI For Good, ibig sabihin ay magagamit natin ang AI para sa pagpapabuti ng sangkatauhan. Sa takong ng AI For Good dumating ang realisasyon na tayo rin ay nakikisawsaw AI Para sa Masama. Kabilang dito ang AI na ginawa o binago sa sarili upang maging diskriminasyon at gumagawa ng mga pagpipilian sa computational na nagdudulot ng mga hindi nararapat na bias. Minsan ang AI ay binuo sa ganoong paraan, habang sa iba pang mga pagkakataon ay lumilipat ito sa hindi kanais-nais na teritoryo.

Gusto kong tiyakin na tayo ay nasa parehong pahina tungkol sa likas na katangian ng AI ngayon.

Walang anumang AI ngayon na nakakaramdam. Wala kaming ganito. Hindi namin alam kung magiging posible ang sentient AI. Walang sinuman ang maaaring mahuhulaan kung makakamit natin ang sentient AI, o kung ang sentient AI ay kahit papaano ay miraculously kusang lalabas sa isang anyo ng computational cognitive supernova (karaniwang tinutukoy bilang ang singularity, tingnan ang aking coverage sa ang link dito).

Ang uri ng AI na pinagtutuunan ko ng pansin ay binubuo ng non-sentient AI na mayroon tayo ngayon. Kung gusto nating mag-isip-isip tungkol sa nararamdamang AI, ang talakayang ito ay maaaring mapunta sa ibang direksyon. Ang isang pakiramdam na AI ay dapat na may kalidad ng tao. Kailangan mong isaalang-alang na ang sentient AI ay ang cognitive equivalent ng isang tao. Higit pa rito, dahil ang ilan ay nag-iisip na maaari tayong magkaroon ng super-intelligent na AI, maiisip na ang naturang AI ay maaaring maging mas matalino kaysa sa mga tao (para sa aking paggalugad ng super-intelligent na AI bilang isang posibilidad, tingnan ang ang coverage dito).

Lubos kong iminumungkahi na itago natin ang mga bagay-bagay at isaalang-alang ang computational non-sentient AI ngayon.

Napagtanto na ang AI ngayon ay hindi nagagawang "mag-isip" sa anumang paraan na katumbas ng pag-iisip ng tao. Kapag nakipag-ugnayan ka kay Alexa o Siri, ang mga kakayahan sa pakikipag-usap ay maaaring mukhang katulad ng mga kapasidad ng tao, ngunit ang katotohanan ay ito ay computational at walang katalinuhan ng tao. Ang pinakabagong panahon ng AI ay gumawa ng malawakang paggamit ng Machine Learning (ML) at Deep Learning (DL), na gumagamit ng computational pattern matching. Ito ay humantong sa mga AI system na may hitsura ng mga proclivities na tulad ng tao. Samantala, walang anumang AI ngayon na may kamukha ng sentido komun at wala ring anumang nakakaisip na pagtataka ng matatag na pag-iisip ng tao.

Maging maingat sa pag-antropomorphize ng AI ngayon.

Ang ML/DL ay isang anyo ng computational pattern matching. Ang karaniwang diskarte ay ang mag-ipon ka ng data tungkol sa isang gawain sa paggawa ng desisyon. Ipapakain mo ang data sa mga modelo ng ML/DL computer. Ang mga modelong iyon ay naghahangad na makahanap ng mga pattern ng matematika. Matapos mahanap ang gayong mga pattern, kung ito ay natagpuan, gagamitin ng AI system ang mga pattern na iyon kapag nakatagpo ng bagong data. Sa pagtatanghal ng bagong data, ang mga pattern na batay sa "luma" o makasaysayang data ay inilapat upang mag-render ng kasalukuyang desisyon.

Sa tingin ko maaari mong hulaan kung saan ito patungo. Kung ang mga tao na gumagawa ng pattern sa mga desisyon ay nagsasama ng mga hindi kanais-nais na pagkiling, malamang na ang data ay nagpapakita nito sa banayad ngunit makabuluhang mga paraan. Ang Machine Learning o Deep Learning computational pattern matching ay susubukan lang na mathematically gayahin ang data nang naaayon. Walang pagkakahawig ng sentido komun o iba pang nakikitang aspeto ng AI-crafted modeling per se.

Higit pa rito, maaaring hindi napagtanto ng mga developer ng AI kung ano ang nangyayari. Ang arcane mathematics sa ML/DL ay maaaring magpahirap sa pag-iwas sa mga nakatagong bias na ngayon. Marapat mong asahan at asahan na ang mga developer ng AI ay susubok para sa mga potensyal na nakabaon na bias, kahit na ito ay mas nakakalito kaysa sa tila. Mayroong matatag na pagkakataon na kahit na may medyo malawak na pagsubok na magkakaroon pa rin ng mga bias na naka-embed sa loob ng pattern-matching na mga modelo ng ML/DL.

Medyo maaari mong gamitin ang sikat o kasumpa-sumpa na kasabihan ng garbage-in garbage-out. Ang bagay ay, ito ay mas katulad sa mga biases-in na insidiously makakuha infused bilang biases lumubog sa loob ng AI. Ang algorithm na paggawa ng desisyon (ADM) ng AI ay axiomatically nagiging puno ng hindi pagkakapantay-pantay.

Hindi maganda.

Ang lahat ng ito ay may kapansin-pansing makabuluhang mga implikasyon sa AI Ethics at nag-aalok ng isang madaling gamitin na window sa mga natutunang aral (kahit na bago mangyari ang lahat ng mga aralin) pagdating sa pagsubok na isabatas ang AI.

Bukod sa paggamit ng mga alituntunin sa AI Ethics sa pangkalahatan, may katumbas na tanong kung dapat ba tayong magkaroon ng mga batas upang pamahalaan ang iba't ibang paggamit ng AI. Ang mga bagong batas ay inilalagay sa paligid sa pederal, estado, at lokal na antas na may kinalaman sa hanay at kalikasan ng kung paano dapat gawin ang AI. Ang pagsisikap na bumalangkas at magpatibay ng mga naturang batas ay unti-unti. Ang AI Ethics ay nagsisilbing isang itinuturing na stopgap, sa pinakamababa, at halos tiyak na sa ilang antas ay direktang isasama sa mga bagong batas na iyon.

Magkaroon ng kamalayan na ang ilan ay matatag na nangangatuwiran na hindi namin kailangan ng mga bagong batas na sumasaklaw sa AI at na ang aming mga kasalukuyang batas ay sapat. Nagbabala sila na kung gagawin natin ang ilan sa mga batas na ito ng AI, papatayin natin ang ginintuang gansa sa pamamagitan ng pagpigil sa mga pagsulong sa AI na nagbibigay ng napakalaking pakinabang sa lipunan.

Sa mga naunang column, sinaklaw ko ang iba't ibang pambansa at internasyonal na pagsisikap na gumawa at magpatupad ng mga batas na kumokontrol sa AI, tingnan ang link dito, Halimbawa. Sinaklaw ko rin ang iba't ibang mga prinsipyo at alituntunin sa AI Ethics na natukoy at pinagtibay ng iba't ibang bansa, kasama na halimbawa ang pagsisikap ng United Nations tulad ng UNESCO set ng AI Ethics na pinagtibay ng halos 200 bansa, tingnan ang link dito.

Narito ang isang kapaki-pakinabang na listahan ng keystone ng pamantayan o mga katangian ng Ethical AI patungkol sa mga AI system na dati kong na-explore nang mabuti:

  • Aninaw
  • Katarungan at Pagkamakatarungan
  • Non-Maleficence
  • Pananagutan
  • Privacy
  • Pagkabenta
  • Kalayaan at Autonomy
  • Pagkatiwalaan
  • Pagpapanatili
  • Dignidad
  • Pagkakaisa

Ang mga alituntuning iyon sa AI Ethics ay taimtim na dapat na ginagamit ng mga developer ng AI, kasama ang mga namamahala sa mga pagsusumikap sa pagpapaunlad ng AI, at maging ang mga sa huli ay naglalagay at nagsasagawa ng pagpapanatili sa mga AI system.

Ang lahat ng stakeholder sa buong AI life cycle ng pag-unlad at paggamit ay isinasaalang-alang sa loob ng saklaw ng pagsunod sa mga itinatag na pamantayan ng Ethical AI. Ito ay isang mahalagang highlight dahil ang karaniwang pagpapalagay ay ang "mga coder lamang" o ang mga nagprograma sa AI ay napapailalim sa pagsunod sa mga paniwala sa AI Ethics. Gaya ng naunang idiniin dito, kailangan ng isang nayon upang makabuo at maglagay ng AI, at kung saan ang buong nayon ay kailangang sanay at sumunod sa mga tuntunin ng AI Ethics.

Sinuri ko rin kamakailan ang AI Bill of Rights na opisyal na pamagat ng opisyal na dokumento ng gobyerno ng US na pinamagatang "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" na resulta ng isang taon na pagsisikap ng Office of Science and Technology Policy (OSTP). ). Ang OSTP ay isang pederal na entity na nagsisilbing payuhan ang Pangulo ng Amerika at ang Tanggapan ng Ehekutibo ng US sa iba't ibang aspetong teknolohikal, siyentipiko, at inhinyero na may pambansang kahalagahan. Sa ganoong kahulugan, maaari mong sabihin na ang AI Bill of Rights na ito ay isang dokumentong inaprubahan at inendorso ng kasalukuyang US White House.

Sa AI Bill of Rights, mayroong limang pangunahing kategorya:

  • Ligtas at epektibong mga sistema
  • Mga proteksyon sa diskriminasyon sa algorithm
  • Pagkalihim ng datos
  • Paunawa at paliwanag
  • Mga alternatibo, pagsasaalang-alang, at pagbabalik ng tao

Maingat kong sinuri ang mga tuntuning iyon, kita n'yo ang link dito.

Ngayong nakapaglagay na ako ng kapaki-pakinabang na pundasyon sa mga nauugnay na paksang ito sa AI Ethics at AI Law, handa na kaming tumalon sa nakakatakot na paksa kung dapat ba o hindi ang AI na magkaroon ng mga label ng babala.

Ihanda ang iyong sarili para sa isang nakapagbibigay-kaalaman na paglalakbay.

Paglalagay ng Mga Label ng Babala sa AI Bilang Paraan ng Pagprotekta sa Sangkatauhan

Mayroong lumalaking buzz na nangyayari na marahil AI ay dapat na may isang babala ng ilang uri.

Halimbawa, sa isang kamakailang artikulo sa Review ng MIT Technology na tumatalakay sa tumataas na interes sa paggawa ng mga pag-audit ng AI, ang ideya ng pagbibigay ng mga palatandaan ng babala ay lumitaw: "Ang paglaki ng mga pag-audit na ito ay nagmumungkahi na isang araw ay maaaring makakita tayo ng mga babala sa istilo ng sigarilyo na ang mga AI system ay maaaring makapinsala sa iyong kalusugan at kaligtasan. Ang ibang mga sektor, tulad ng mga kemikal at pagkain, ay may regular na pag-audit upang matiyak na ligtas na gamitin ang mga produkto. Maaari bang maging karaniwan sa AI ang isang bagay na ganito?" (Review ng MIT Technology, Melissa Heikkilä, Oktubre 24, 2022).

Mag-chat tayo nang kaunti tungkol sa mga babala at babala.

Lahat tayo ay karaniwang pamilyar sa mga babala at babala sa maraming mga produkto at serbisyo ng pang-araw-araw na kalikasan. Minsan ang mga palatandaang pangkaligtasan ay itinakda ng batas bilang kinakailangan, habang sa ibang mga pagkakataon ay may pagpapasya sa paggamit ng mga naturang palatandaan. Bilang karagdagan, ang ilang mga palatandaan sa kaligtasan ay na-standardize, tulad ng pagtukoy ayon sa pamantayan ng ANSI Z535 at pamantayan ng OSHA 1910.14. Ang mga pamantayang iyon ay sumasaklaw sa mga aspeto gaya ng mga salita ng karatula, ang mga kulay at letrang ginamit, ang hugis ng tanda, at iba't iba pang detalye.

Makatuwiran na magkaroon ng mga pamantayan para sa gayong mga palatandaan ng babala. Sa tuwing makakakita ka ng ganoong palatandaan, kung nakakatugon ito sa mga nakasaad na pamantayan, mas malamang na maniwala kang lehitimo ang tanda, at nangangailangan ka ng mas kaunting pagpoproseso ng pag-iisip upang masuri at maunawaan ang tanda. Para sa mga senyales na wala sa isang standardized na diskarte, madalas na kailangan mong kalkulahin sa isip kung ano ang sinasabi sa iyo ng senyales, marahil ay nawawalan ka ng mahalagang oras upang kumilos o maaari mong lubos na mali ang paghuhusga sa tanda at hindi nauunawaan nang maayos ang babala.

Ang isang hanay ng mga naturang palatandaan ay maaaring umiral, kung saan ang mga ito ay madalas na inuri na medyo tulad nito:

  • Tanda ng panganib: Pinakamataas na pag-aalala at nagpapahiwatig ng isang agarang panganib na may malamang na malubhang kahihinatnan
  • Tanda ng babala: Indikasyon ng isang panganib na mas mababa kaysa sa "panganib" ngunit medyo seryoso pa rin
  • Palatandaan ng pag-iingat: Indikasyon ng isang potensyal na panganib na mas mababa kaysa sa "babala" ngunit talagang masigasig
  • Sign ng notification: Indikasyon ng isang informational heads-up na mas mababa kaysa sa "pag-iingat" ngunit may kasama pa ring mga nakababahalang aspeto

Dahil sa nabanggit na background tungkol sa mga babala at babala, maaari tayong magpatuloy at subukang ilapat ito ayon sa konteksto sa paggamit ng AI.

Una, maaari tayong sa anumang paraan ay sumang-ayon na ang AI signage ay maaaring nasa isang katulad na saklaw ng kalubhaan gaya ng nakaugalian sa mga pang-araw-araw na palatandaan, tulad ng:

  • AI Danger sign: AI ng pinakamataas na pag-aalala at nagpapahiwatig ng isang agarang panganib na may malamang na malalang kahihinatnan
  • AI Warning sign: AI na nagpapahiwatig ng isang panganib na mas mababa kaysa sa "panganib" ngunit medyo seryoso pa rin
  • AI Cautionary sign: AI na nagpapahiwatig ng isang potensyal na panganib na mas mababa kaysa sa isang "babala" ngunit talagang masigasig
  • Sign ng AI Notification: Ang AI ay nagpapahiwatig ng isang informational head-up na mas mababa kaysa sa "pag-iingat" ngunit nangangailangan pa rin ng mga nakababahalang aspeto

Ang diwa ay hindi lahat ng AI ay magkakaroon ng pantay na pag-aalala. Maaaring ang isang AI ay nagdudulot ng napakalaking panganib o may mga marginal na panganib lamang. Alinsunod dito, ang signage ay dapat magpakita kung alin. Kung ang lahat ng babala ng AI o mga senyales ng pag-iingat ay ipinakita lamang bilang parehong kalibre, malamang na hindi natin malalaman o malalaman kung labis ang pag-aalala o bahagyang pag-aalala lamang tungkol sa AI. Ang paggamit ng isang typified wording scheme ay maaaring gawing mas madali ang buhay kapag nakikita at binibigyang-kahulugan ang mga senyales ng babala na nauugnay sa AI.

Maaaring nagtataka ka kung ano pa ang sasabihin ng mga palatandaan sa mga tuntunin ng mga detalye ng mensaheng ipaparating.

Iyan ay tiyak na isang mas mahirap na bagay na harapin. Ang mga posibilidad ng AI sa paggawa ng mga bagay na itinuturing na hindi ligtas o nakakabahala ay magiging napakalaki, halos walang katapusan. Maaari ba nating pakuluan ang mga ito sa ilang nakagawiang hanay na binabaybay sa iilang salita bawat isa? O kailangan ba nating pahintulutan ang isang mas malayang paraan kung paano pupunta ang mga salita?

Hahayaan kitang pag-isipan ang bukas na tanong na iyon.

Sa pagpapatuloy, madalas tayong makakita ng mga palatandaan ng babala na naka-post sa mga bagay. Ang isang AI system ay hindi nangangahulugang isang "bagay" sa parehong kahulugan tulad ng nakagawiang paglalagay ng mga palatandaan. Itinaas nito ang tanong kung saan ipapakita ang mga palatandaan ng babala ng AI.

Maaaring kapag nagpapatakbo ka ng isang app sa sabihin ang iyong smartphone na kung ito ay gumagamit ng AI magkakaroon ng isang mensahe na ipapakita na naglalaman ng babala na nauugnay sa AI. Aalertuhan ka ng app tungkol sa pinagbabatayan ng paggamit ng AI. Ito ay maaaring isang pop-up na mensahe o maaaring ipakita sa iba't ibang paraan ng visual at kahit na pandinig.

Mayroon ding sitwasyon ng paggamit mo ng serbisyo na sinusuportahan ng AI, kahit na maaaring hindi ka direktang nakikipag-ugnayan sa AI. Halimbawa, maaari kang nakikipag-usap sa isang ahente ng tao tungkol sa pagkuha ng isang mortgage sa bahay, kung saan ang ahente ay tahimik sa likod ng mga eksena gamit ang isang AI system upang gabayan ang kanilang mga pagsisikap.

Kaya, dapat nating asahan na ang mga palatandaan ng babala ng AI ay dapat na naroroon sa parehong mga kaso ng paggamit ng AI, tulad ng:

  • AI na partikular sa produkto: Ang AI bilang isang produkto ay dapat na may tahasang babala o babala ng AI
  • AI na nakatuon sa serbisyo: Ang AI bilang isang serbisyo (direkta o hindi direkta) ay dapat magkaroon ng babala o babala ng AI

Ang mga may pag-aalinlangan ay tiyak na magiging mabilis na magmungkahi na ang AI warning sign ay maaaring malikot na disguised ng gumagawa ng app upang ang alerto ay hindi masyadong kapansin-pansin. Marahil ang babala ay lilitaw sa isang maikling sandali at talagang hindi mo napansin na ito ay ipinakita. Ang isa pang palihim na lansihin ay ang paggawa ng isang uri ng laro mula dito, na tila pinabababa ang kaseryosohan ng alerto at pinapatulog ang mga tao sa pag-iisip na ang babala ay hindi mahalaga.

Oo, maaari mong pustahan na ang anumang mga senyales ng babala na nauugnay sa AI ay malilinlang at gagamitin sa mga paraang hindi ayon sa diwa at layunin ng babala na mensahe na dapat nilang ihatid.

Ang lahat ng pag-aalinlangan na iyon ay sumasama sa kung gagamitin natin ang AI Ethics bilang "malambot na mga batas" upang subukan at isulong ang mga babala at pag-iingat na nauugnay sa AI, o kung gagamitin ba natin ang "mga mahihirap na batas" kabilang ang mga pinagtibay na batas na may suporta sa korte. Sa teorya, ang malambot na pagtulak ng batas ay magbibigay-daan para sa isang mas malaking pagkakatulad ng paglalaro sa bagay, habang ang mga batas sa mga libro ay darating na may potensyal para sa pagpapatupad ng pamahalaan at magdulot ng higit na kahigpitan.

Ang isa pang alalahanin ay kung ang AI signage ay magkakaroon pa rin ng anumang pagkakaiba.

Maraming pananaliksik sa gawi ng consumer ang may posibilidad na magpakita ng mga magulo na resulta pagdating sa pagbibigay ng mga label ng babala para sa mga consumer. Minsan epektibo ang mga babala, minsan hindi. Ilapat natin ang ilan sa pananaliksik na iyon sa konteksto ng AI.

Isaalang-alang ang mga aspetong ito:

  • Pagtuklas: Ang mga gumagamit ba ng AI na naglalaman ng isang mabubuhay na AI warning sign ay aktibong mapapansin o matutukoy na ang sign ay ipinapakita sa kanila (ipagpalagay na ang naturang signage ay nangyari)?
  • Pang-intindi: Para sa mga nakapansin, mauunawaan ba nila o mauunawaan kung ano ang sinusubukang imungkahi ng AI warning sign sa kanila?
  • Aksyon: Para sa mga gumagawa ng mental na pagtalon na iyon, ang AI warning sign ba ay mag-uudyok sa kanila na kumilos o kung hindi man ay magsisilbing gabay sa kanilang pag-uugali nang naaayon?

Maaari mong asahan na kung magkakaroon ng momentum para sa pagkakaroon ng mga palatandaan ng babala ng AI, pag-aaralan nang mabuti ng mga mananaliksik ang bagay na ito. Ang ideya ay upang tumulong sa paglilinaw sa ilalim ng kung anong mga pangyayari ang mga babala ay nakakatulong at kung kailan sila hindi. Ito naman ay nauugnay sa disenyo at hitsura at pakiramdam na kasangkot. Maaari din nating asahan na ang publiko sa pangkalahatan ay kailangang turuan o alamin tungkol sa paglitaw ng mga babala at babala ng AI na ito upang sila ay masanay sa mga ito.

Maraming twists at turns na dapat isaalang-alang.

Dapat bang mangyari lamang ang babala o babala ng AI sa simula ng app na ginagamit? Marahil ang panimulang punto ay hindi sapat sa kanyang sarili. Maaaring isipin ng isang tao sa unang tingin na ligtas lang itong nilalaro ng app sa pamamagitan ng paggamit ng babala, at sa gayon ay hindi gaanong isinasaalang-alang ang babala. Sa sandaling ang tao ay nasa kalagitnaan na sa paggamit ng app, marahil ay magkakaroon ng karagdagang babala. Sa sandaling iyon, mas alam ng tao kung ano ang ginagawa ng app at maaaring nakalimutan na niya ang tungkol sa naunang ipinahiwatig na mensahe ng babala.

Maaaring mangyari ang babala o babala ng AI:

  • Bago simulan ang app at nang malapit nang gamitin ang app
  • Itinanghal sa sandaling ang app ay nagsimula at lamang sa panimulang punto
  • Ipinapakita sa simula at muli sa kalagitnaan
  • Ipinapakita ng maraming beses sa buong paggamit ng AI
  • Ibinigay sa dulo ng paggamit ng app
  • Magbigay pagkatapos lumabas sa app at posibleng kahit ilang minuto, oras, o araw mamaya
  • At iba pa

Sa palagay mo ba kailangan ng taong gumagamit ng AI na kumpirmahin o kilalanin ang anumang mga babala o babala ng AI?

Iginigiit ng ilan na kailangang tanggapin ng tao na nakita nila ang mga babala. Posibleng mapipigilan nito ang mga maaaring mag-claim na walang anumang mensahe ng babala. Maaari rin itong maging dahilan upang mas seryosohin ng mga tao ang mga mensahe, dahil hinihiling sa kanila na kumpirmahin na sinusunod nila ang indikasyon ng babala.

Narito ang isang matigas na tanong para sa iyo.

Dapat lahat Ang AI ay kailangang magbigay ng babala o indikasyon sa kaligtasan?

Maaari kang magtaltalan na oo, ang lahat ng AI ay dapat magkaroon nito. Kahit na ang AI ay isang marginal na panganib sa kaligtasan, dapat pa rin itong magkaroon ng ilang anyo ng babala, posibleng isang abiso lamang o indikasyon ng impormasyon. Ang iba ay magtatalo sa pagtatalo na ito. Salungatin nila na ikaw ay lumalampas sa dagat. Hindi lahat ng AI ay nangangailangan nito. Higit pa rito, kung pipilitin mo ang lahat ng AI na magkaroon nito, mapapalabnaw mo ang layunin. Ang mga tao ay magiging manhid na makita ang mga indikasyon ng babala. Ang buong diskarte ay magiging isang komedya.

Sa isang nauugnay na anggulo, isaalang-alang kung ano ang malamang na sabihin ng mga gumagawa ng AI.

Ang isang pananaw ay magiging masakit ito sa iyong-alam-kung ano ang ilalagay. Ang kailangang baguhin ang lahat ng iyong AI system at idagdag ang feature na ito ay maaaring magastos. Ang pagdaragdag nito sa isang pasulong na batayan ay maaaring hindi gaanong magastos, ngunit gayunpaman mayroong isang gastos na nauugnay sa pagsasama ng probisyong ito.

Ang malabo ay isa pang potensyal na reklamo. Anong uri ng mensahe ang kailangang ipakita? Kung walang anumang mga pamantayan, nangangahulugan ito na ang mga gumagawa ng AI ay kailangang gumawa ng panibagong bagay. Hindi lamang ang karagdagang gastos na ito, posibleng magbukas ng pinto para mademanda. Maaari mong isipin na ang isang gumagawa ng AI ay maaaring gawin sa gawain na ang kanilang babala ay hindi kasing ganda ng ilang iba pang sistema ng AI. Ang mga abogado ay gagawa ng isang bundle mula sa nagresultang kalituhan.

Nariyan din ang pag-aalala na ang mga tao ay labis na matatakot sa mga mensaheng pangkaligtasan na ito.

Ang isang gumagawa ng AI ay maaaring makakita ng matinding pagbaba sa bilang ng mga user dahil sa isang mensaheng pangkaligtasan na nilayon lamang na magbigay ng pag-iingat sa impormasyon. Hindi alam ng mga tao kung ano ang gagawin sa mensahe. Kung hindi pa nila nakikita ang mga ganoong mensahe dati, maaari silang matakot kaagad at maiwasan ang paggamit ng AI.

Binanggit ko ang mga facet na iyon dahil ang ilan ay nagpapahayag na na "hindi ito makakasakit" upang simulan ang pagsasama ng mga babala ng AI o mga mensahe sa kaligtasan. Para sa kanila, ang ideya ay kasing perpekto ng apple pie. Walang sinuman ang maaaring seryosong pabulaanan ang mga benepisyo ng palaging nangangailangan ng kaligtasan o mga babala na nauugnay sa AI. Ngunit siyempre, hindi iyon isang tunay na paraan ng pag-iisip tungkol sa bagay na iyon.

Maaari ka pang pumunta nang higit pa at i-claim na ang mga mensahe ng babala ng AI ay maaaring makagawa ng ilang uri ng mass hysteria. Kung bigla nating sinimulan ang pagpilit sa mga AI system na magkaroon ng mga ganoong mensahe, maaaring mali ang kahulugan ng mga tao sa layunin. Nakikita mo, maraming mga pangaral na nahaharap tayo sa isang umiiral na krisis ng AI, kung saan sakupin ng AI ang mundo at lipulin ang sangkatauhan, tingnan mo. ang link dito para sa aking pagsusuri sa mga ganoong uri ng paghahabol.

Ang paggamit ng mensahe ng babala ng AI ay maaaring "magbigay inspirasyon" sa ilang tao na maniwala na malapit na ang wakas. Bakit pa lumalabas ang mga mensahe? Tiyak, ito ay isang indikasyon na sa wakas, ang AI ay naghahanda na upang maging aming mga mapang-aping panginoon.

Isang uri ng kawalang-pag-asa na malungkot na resulta ng pagsisikap na gawin ang tama sa pamamagitan ng pagpapabatid sa publiko kung paano mailalagay ang AI sa mga kakayahang mapang-diskrimina o iba pa. AI Para sa Masama mga aspeto.

Konklusyon

Si James Russell Lowell, ang sikat na Amerikanong makata, ay minsang nagsabi nito: “Ang isang tinik ng karanasan ay nagkakahalaga ng buong ilang ng babala.”

Ibinahagi ko ang matayog na pangungusap upang gumawa ng ilang pangwakas na komento sa usapin ng mga babala ng AI o mga mensahe sa kaligtasan.

Ang mga pagkakataon ay na hanggang sa magkaroon tayo ng medyo malawak na pagsasakatuparan ng AI na gumagawa ng masasamang gawa, hindi magkakaroon ng labis na sigaw para sa mga mensahe ng babala na nauugnay sa AI. Ang mga gumagawa ng AI na pipiliing kusang gawin ito ay maaaring papurihan, kahit na hindi nila sinasadyang makita ang kanilang sarili na hindi makatarungang ginigipit. Maaaring sundan sila ng ilang mga pantas para sa paggamit ng AI na tila nangangailangan ng mga babala, sa simula, habang nagpapabaya na matanto na sinusubukan nilang mauna at lahat ng iba pang gumagawa ng AI ay nahuhuli.

Darned kung gagawin mo, marahil hindi darned kung hindi mo gagawin.

Ang isa pang pagsasaalang-alang ay tumatalakay sa paggawa ng tila magandang konseptong ideya sa isang praktikal at kapaki-pakinabang na kasanayan. Madaling iwagayway ang iyong mga kamay at malabo na isigaw sa hangin na ang AI ay dapat magkaroon ng mga mensahe ng babala at kaligtasan. Ang mahirap na bahagi ay dumarating kapag nagpapasya kung ano ang mga mensaheng iyon, kailan at saan dapat iharap, kung o sa anong antas ang kanilang gastos ay nakakakuha ng sapat na mga benepisyo, at iba pa.

Dito natin ibibigay kay James Russell Lowell ang huling salita (makatula) sa paksang ito sa ngayon: "Ang pagkamalikhain ay hindi ang paghahanap ng isang bagay, ngunit ang paggawa ng isang bagay mula dito pagkatapos na ito ay natagpuan."

Hulaan na oras na upang isara ang ating mga manggas at pagsikapan ito. At iyon ay hindi lamang isang babala, ito ay isang aksyon.

Pinagmulan: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- mga babala-sa-lahat-umiiral-at-hinaharap-ai/