AI Ethics At Autonomous Systems Mga Aral na Nakuha Mula sa Kamakailang Paglipad ng Alaska Airlines Kung Saan Hindi Sumang-ayon Ang Pilot At Co-Pilot Bago Umalis At Biglang Nag-opt Taxi Bumalik sa Terminal At Pumunta sa Kanilang Hiwalay na Daan

Medyo naging balita ang mga airline kamakailan.

Nasa summertime crunch tayo ng mga flight. Ang mga pagod at bigong pasahero ay nahaharap sa lahat ng uri ng pagkaantala sa paglipad at paglilipat ng pag-iiskedyul ng airline. Nakansela ang mga flight nang hindi inaasahan. Naantala ang mga flight. Usok ng mga pasahero. Sa kasamaang-palad, maraming pagkakataon ng mga pasahero na nagbibigay-daan sa pagsiklab ng mga inis na ito, at nakita namin ang napakaraming viral na mga video ng head-to-head confrontations at kung minsan ay pumming fisticuffs.

Mas bihira nating malaman ang tungkol sa mga hindi pagkakaunawaan sa pagitan ng isang piloto at copilot na maaaring mangyari habang nasa sabungan.

Iyan ay lubos na isang sorpresa.

Sa katunayan, natural tayong nabigla sa pag-iisip na ang isang piloto at copilot ay magkakaroon ng anumang pagkakatulad ng isang malubhang hindi pagkakasundo sa anumang yugto ng isang flight. Kung ang hindi pagkakasundo ay nauugnay sa kung aling tatak ng kape ang pinakamainam, ang aming palagay ay hindi ito makakapasok sa pagsusumikap sa trabaho na nangangailangan ng paglipad ng eroplano. Ikikibit-balikat na lang ng dalawa ang kawalan ng eye-to-eye sa isang tila flight-irrelevant na paksa. Ang kanilang propesyonal na pag-uugali at matagal nang pilot na pagsasanay ay magsisimula at ibabalik nila ang kanilang pagtuon sa mga detalye ng paglipad.

Isaalang-alang bagaman kapag a propesyonal na hindi pagkakasundo pumagitna

Sa madaling sabi, ibabahagi ko sa iyo ang isang balita na malawakang nai-publish tungkol sa isang kamakailang pagkakataon ng isang bagay na nangyari sa isang flight sa US na nauukol sa isang sinasabing propesyonal na hindi pagkakasundo sa sabungan.

Ito ay pangunahing binanggit dito upang matuklasan natin ang isang nauugnay na paksa na may malaking kahalagahan sa pagdating ng Artificial Intelligence (AI). Nakikita mo, maaaring magkaroon ng isang uri ng sasabihin nating propesyonal na hindi pagkakasundo sa pagitan ng hindi lamang ng mga tao sa isang hindi pagkakasundo ng tao, ngunit maaari rin tayong magkaroon ng isang katulad na mangyari sa gitna ng pag-ampon ng AI at ergo na nagreresulta sa mga hindi pagkakasundo ng tao laban sa AI. . Lumilitaw ang lahat ng uri ng pagsasaalang-alang sa AI Ethics. Para sa aking malawak at patuloy na saklaw ng mga isyu sa AI Ethics at Ethical AI, tingnan ang link dito at ang link dito, lamang sa pangalan ng ilang.

Ihanda ang iyong sarili para sa isang kamangha-manghang kuwento.

Tulad ng kamakailang iniulat sa balita, isang kaso ng "propesyonal na hindi pagkakasundo" ay lumilitaw sa panahon ng isang Alaska Airline flight na papunta mula sa Washington patungong San Francisco. Ayon sa mga balita, ang flight ay lumayo sa gate at naghihintay sa tarmac para sa pahintulot na mag-taxi at lumipad. Isang bagyo ang nangyayari at humantong sa pagkaantala ng flight ng mahigit isang oras at kalahati. Lumalabas na sa kalaunan ay tumalikod ang eroplano at bumalik sa gate, na maaaring karaniwang inaakala ng ilan sa mga pasahero na isang pag-iingat sa kaligtasan na may kaugnayan sa bagyo.

Sa iba't ibang tweets, tila nagkaroon ng out-of-view na away ang piloto at copilot noong panahon nila doon sa sabungan at kahit papaano ay napagpasyahan na ang pinakamaingat na diskarte ay ang pag-scrub ng flight at bumalik sa terminal. . Iminungkahi ng mga tweet na ang kapitan at unang opisyal ay tila hindi magkasundo sa isa't isa. Ang airline kalaunan ay naglabas ng isang pahayag na ang sitwasyon ay nakakalungkot (ang sitwasyon ay hindi tahasang sinabi o ipinaliwanag per se), ang dalawang opisyal ng flight ay sinuri ng management at itinuring na angkop na lumipad, ang mga tripulante ay pinalitan, at ang paglipad ay naganap. at kalaunan ay nakarating sa San Francisco.

Sa isang kahulugan, kung sa katunayan ang piloto at copilot ay nagkaroon ng propesyonal na hindi pagkakasundo tulad ng kung ang eroplano ay angkop na handa para sa paglipad o kung ang panganib ng paglipad sa isang bagyo ay nasa loob ng angkop na hanay ng kaligtasan, ang mga pasaherong iyon ay dapat na mapawi at thankful na naibalik ang eroplano sa gate. Mas mabuting maging ligtas kaysa magsisi. Ang pagkakaroon ng karagdagang pagkaantala ay sulit na sulit ang ipinapalagay na pagbabawas ng mga panganib na nauugnay sa isang itinuturing na masungit o masamang paglalakbay sa paglipad.

Ang ilang mga tao ay maaaring magulat na ang gayong propesyonal na hindi pagkakasundo ay maaaring lumitaw.

Marahil tayo ay may maling impresyon na ang lahat ng nangyayari sa sabungan ay ganap na tumpak at mahusay na nai-script. Ang lahat ng anyo ng pagpapasya ng tao ay tila naalis sa proseso. Batay sa mga tumpak at masusing kinakalkula na mga chart, ang isang flight ay maaaring magpatuloy o hindi. Hindi maaaring magkaroon ng anumang hindi pagkakasundo kapag ang buong kit at caboodle ay naisip na batay sa hindi maitatanggi na calculus ng mga katotohanan at numero.

Hindi iyon ang buong katotohanan ng bagay. Oo naman, maraming protocol at lahat ng uri ng checks and balances, ngunit hindi nito pinipiga ang lahat ng iota ng paghatol ng tao. Ang mga piloto at copilot ay gumagamit pa rin ng paghuhusga ng tao. Sa kabutihang palad, ang paghatol ng tao na ito ay hinahasa ng mga taon ng paglipad. Ang mga posibilidad ay ang isang piloto at copilot sa isang komersyal na pampasaherong eroplano ay may napakaraming karanasan sa paglipad at madaling magamit ang kanilang maraming taon ng malalim na pangangatwiran at paghatol na nauugnay sa pagiging nasa mga kontrol sa paglipad.

Dahil sa kapansin-pansing papel ng paghatol ng tao, maaari nating lohikal na asahan na ang isang piloto at copilot ay minsan ay magkakaroon ng mga propesyonal na hindi pagkakasundo. Karamihan sa mga oras ay malamang na napakakaunting hindi pagkakasundo. Ang pilot at copilot para sa bawat araw na mga flight ay malamang na maayos na nakahanay sa preponderance ng oras. Tanging kapag ang isang senaryo ng paglipad ay maaaring lumampas sa karaniwang mga hangganan, aasahan natin na mas matindi ang alitan.

Kung mayroong isang malakas na pagkakaiba ng opinyon sa pagitan ng dalawa, maglakas-loob akong sabihin na gusto naming i-hash out nila ito.

Isipin ang isang sitwasyon kung saan ang piloto ay stridently gustong magpatuloy ngunit ang copilot perceives na ang mga panganib ay masyadong mataas. Ang pagkakaroon lamang ng copilot ng kowtow sa piloto ay tila hindi kanais-nais. Ang copilot ay isang check-and-balance sa kung ano ang maaaring iniisip ng isang piloto na gawin. Para sa mga gustong tumahimik ang isang copilot at kumilos nang walang pag-iisip sa anumang iutos ng piloto, mabuti, hindi iyon katiyakan. Ang copilot ay hindi lamang isang ekstrang "pilot" na pumapasok lamang sa larawan kapag ang piloto ay ganap na walang kakayahan. Iyan ay isang maling pag-unawa sa halaga ng pagkakaroon ng piloto at copilot sa sabungan.

May ibang anggulo dito.

Isaalang-alang ang kaso ng isang piloto na hindi naniniwala na ang paglipad ay dapat magpatuloy at samantala ang copilot ay gung-ho tungkol sa pagbangon sa himpapawid. Ano ngayon? Ayon sa inaasahang hierarchy, ang piloto ay dapat na kumbensyonal na mananaig sa copilot. Ang itinalagang tungkulin ng pagiging pangunahing in-charge ay ginagawang mas malaki ang piloto sa kung ano ang medyo katumbas. Karaniwan, ang piloto ay may mas pangkalahatang pampalasa sa oras ng paglipad kaysa sa copilot at dahil dito ang copilot ay hierarchically dapat na ipagpaliban ang mga kagustuhan ng piloto (kapag nasa loob ng dahilan).

Sa anumang kaso, sa tingin ko lahat tayo ay maaaring sumang-ayon na ang pagpili na huwag lumipad ay isang tiyak na hindi gaanong peligroso na pagpipilian kaysa sa pagpapasya na lumipad. Kapag ang eroplano ay nasa himpapawid, ang mga antas ng panganib ay nagiging napakalaki kumpara sa pagiging nasa anumang ordinaryong matatag na lupa. Ang isang nakagawiang komersyal na flight na nagta-taxi lang pabalik sa terminal nang hindi nakarating sa himpapawid ay magiging isang medyo mapayapa na resolusyon sa anumang mainit na acrimonious na debate tungkol sa paglipad.

Maglipat tayo ng mga kilos at gamitin ang magaling na item ng balita na ito para sa isang ganap na naiiba ngunit nauugnay na layunin.

Unti-unti tayong nagkakaroon sa gitna natin ng pagkalat ng mga autonomous system na nakabatay sa AI. Minsan ang AI ang nagpapatakbo ng palabas, kumbaga. Ginagawa ng AI ang lahat mula A hanggang Z, at maaari nating ipakahulugan ito bilang AI na ganap na nagsasarili o halos ganoon. Sa ibang mga kaso, maaari tayong magkaroon ng AI na nakikipag-ugnayan sa at sa ilang antas ay naka-program na umaasa sa pagkakaroon ng human-in-the-loop.

Gusto kong mag-concentrate sa usapin ng isang autonomous o semi-autonomous na sistema na nakabatay sa AI na mula sa get-go ay may tao sa loop. Ang AI at ang tao ay sadyang pinagtutulungan at dapat ay nagtatrabaho nang magkasabay sa isa't isa. Sila ay mga cohorts sa pagsasagawa ng isang partikular na gawain sa kamay. Ang AI lamang ay hindi dapat kumikilos sa gawain. Dapat makipag-ugnayan ang AI sa itinalagang human-in-the-loop.

Inilalabas ko ang paglalarawang ito upang maiba ang pagkakaiba sa mga sitwasyon kung saan ang human-in-the-loop ay itinuturing na isang opsyonal na facet. Sa esensya, ang AI ay binibigyan ng libreng kontrol. Kung pipiliin ng AI na gamitin ang tao, gawin din ito. Walang kinakailangan na ang AI ay kailangang hawakan ang base o makipagtulungan sa itinalagang tao. Ang mga pagsusuri na malapit ko nang iugnay ay tiyak na nauugnay sa ganoong uri opsyonal pag-aayos ng pakikipag-ugnayan, ngunit hindi ito ang partikular na pinagtutuunan ko sa partikular na talakayang ito.

Okay, kaya mayroon kaming ilang uri ng gawain na pagtulungan ng isang tao at isang AI, na hindi mapaghihiwalay sa isa't isa. Sa isang abstract na kahulugan, mayroon kaming isang tao na nakaupo sa isang upuan at isang AI system na nakaupo sa kabilang upuan. Sinasabi ko ito nang bastos dahil hindi namin kinukulong ang talakayang ito sa isang robot halimbawa na maaaring nakaupo talaga sa isang upuan. Ako ay metaporikong tinutukoy ang paniwala na ang AI ay nasa isang lugar na nakikilahok sa gawain at gayundin ang tao. Sa pisikal, ang kanilang kinaroroonan ay hindi partikular na mahalaga sa talakayan.

Maaaring hindi ka sigurado kung kailan maaaring mangyari ang ganoong pangyayari.

Napakadali.

Tatalakayin ko, mamaya, ang pagdating ng mga autonomous na sasakyan at mga self-driving na sasakyan. Sa ilang mga antas ng awtonomiya, ang AI at ang tao ay dapat na magtulungan. Maaaring ang AI ang nagmamaneho ng kotse at humiling na ang tao ang pumalit sa mga kontrol sa pagmamaneho. Maaaring ang tao ang nagmamaneho ng kotse at i-activate ang AI para kunin ang mga kontrol. Nagpapalitan sila sa mga kontrol sa pagmamaneho.

Bilang karagdagan, ang ilang mga disenyo ay nagkakaroon ng AI na maging aktibo sa lahat ng oras (o, maliban kung naka-off), upang ang AI ay laging handa. Higit pa rito, maaaring direktang mamagitan ang AI, kahit na hindi nagtatanong ang tao, depende sa sitwasyong nangyayari. Ipagpalagay halimbawa na ang tao ay tila nakatulog sa manibela. Dahil ang tao ay tila hindi ma-activate ang AI (dahil ang tao ay natutulog), ang AI ay maaaring ma-program upang kunin ang mga kontrol mula sa tao.

Ang ilang mga disenyo ay nagdadala ng AI at mga tao sa isang dalawahang diskarte sa pagmamaneho. Ang AI ang nagmamaneho at ang tao ang nagmamaneho. O, kung gusto mo, ang tao ang nagmamaneho at ang AI ay nagmamaneho din. Kanya-kanya silang nagmamaneho ng sasakyan. Inihahalintulad ko ito sa mga espesyal na rigged na kotse na maaaring ginamit mo noong kumukuha ng pagsasanay sa pagmamaneho at mayroong dalawang hanay ng mga kontrol sa pagmamaneho sa sasakyan, isa para sa driver ng estudyante at isa para sa tagapagturo sa pagmamaneho.

Iyon ay isa lamang halimbawa ng isang setting kung saan ang AI at mga tao ay maaaring magkasamang nagtatrabaho sa isang gawain. Ang lahat ng uri ng mga posibilidad ay umiiral. Ang iba pang mga uri ng autonomous na sasakyan ay maaaring magkatulad, tulad ng mga eroplano, drone, submersible, surface ship, tren, at iba pa. Hindi lang natin kailangang isaalang-alang ang mga setting ng sasakyan at transportasyon. Isipin ang medikal na domain at mga operasyon na magkasamang isinagawa ng isang medikal na doktor at isang AI system. Ang listahan ay walang katapusan.

Halos gusto kong banggitin ang klasikong nakakagulo na biro tungkol sa isang tao at isang AI na magkasamang naglalakad sa isang bar. Ito ay medyo isang tawa para sa mga nasa AI.

Seryoso, bumalik tayo sa focus ng isang tao at isang AI system na nagtutulungan sa isang partikular na gawain. Una, gusto kong iwasan ang anthropomorphizing AI, na isang bagay na bibigyan ko ng diin sa kabuuan. Ang AI ay hindi nararamdaman. Mangyaring tandaan iyon.

Narito ang isang bagay na dapat pag-isipan: Ang isang itinalagang human-in-the-loop ba ay palaging magkakasundo sa isang co-teamed AI?

Para sa anumang kumplikadong gawain, mukhang hindi malamang na ang tao at ang AI ay ganap at palaging ganap na nasa lock at hakbang. Ang tao ay sa ilang pagkakataon ay posibleng hindi sumasang-ayon sa AI. Maaari nating dalhin ang pagpapalagay na iyon hanggang sa bangko.

Gusto kong isaalang-alang mo rin ang posibleng nakakagulat na posibilidad na ito: Ang AI ba ay laging sumasang-ayon sa isang itinalagang human-in-the-loop?

Muli, para sa anumang kumplikadong gawain, mukhang lubos na maiisip na ang AI ay hindi sasang-ayon sa mga tao sa ilang pagkakataon. Kung nakasandal ka na sa ideya na ang AI ay dapat palaging mali habang ang mga tao ay dapat palaging tama, magiging matalino kang pag-isipang muli ang madaliang konklusyon na iyon. Isipin ang isang kotse na may tao at AI na magkasamang nagmamaneho ng semi-autonomous na sasakyan. Ang tao ay umiiwas patungo sa isang brick wall. Bakit? Hindi namin alam, marahil ang tao ay lasing o nakatulog, ngunit alam namin na ang pag-crash sa isang brick wall ay hindi magandang ideya, lahat ng iba ay pantay. Maaaring matukoy ng AI ang paparating na kalamidad at subukang umiwas sa paparating na hadlang.

Sinabi ng lahat, magkakaroon tayo ng natatanging posibilidad ng AI at ang tao na hindi sumasang-ayon sa isa't isa. Ang iba pang paraan upang sabihin ang parehong bagay ay ang mga tao at AI ay hindi nagkakasundo sa isa't isa. Tandaan na hindi ko nais na ang pagkakasunud-sunod ng AI-at-tao kumpara sa tao-at-AI ay magmungkahi ng anumang bagay tungkol sa direksyon o pagiging totoo ng hindi pagkakasundo.

Ang dalawang manggagawa, isang tao at ang isa ay AI, ay hindi sumasang-ayon sa isa't isa.

Maaari naming ipahayag nang maaga na sa tuwing may hindi pagkakasundo sa pagitan ng isang partikular na AI at isang partikular na tao, nauna naming ipinapahayag na ang tao ay nananaig sa AI. Iyon ay sinabi, ang aking naglalarawang halimbawa tungkol sa kotse na papunta sa isang brick wall ay tila humihikayat sa amin na ang tao ay palaging palaging magiging tama.

Sa kabaligtaran, maaari tayong mag-opt in-advance na ipahayag na sa tuwing may hindi pagkakasundo ay mapapatunayan natin na ang AI ay tama at ang tao ay mali. Hindi rin ito isang makabuluhang probisyon na pangkalahatan. Isipin ang isang kotse kung saan ang AI ay may ilang naka-embed na error sa software o bug, at sinusubukan ng AI na itaboy ang sasakyan sa kalsada at papunta sa isang kanal. Sa pag-aakalang lahat ng iba ay pantay-pantay, dapat na malampasan ng tao ang pagkilos na ito sa pagmamaneho ng AI at pigilan ang sasakyan na lumapag sa kanal.

Gawin natin ang isang mabilis na buod nito:

  • Ang isang human-in-the-loop ba ay palaging sumasang-ayon sa AI? Sagot: Hindi.
  • Ang AI ba ay palaging sumasang-ayon sa isang human-in-the-loop? Sagot: Hindi.
  • Palagi bang tama ang isang human-in-the-loop kumpara sa AI? Sagot: Hindi kinakailangan.
  • Palagi bang tama ang AI kumpara sa human-in-the-loop? Sagot: Hindi naman.

Tiyak na maaari mong i-set up ang AI upang ituring bilang default bilang ang "mali" o mas mahinang partido at samakatuwid ay palaging ipagpaliban ang tao sa tuwing may lalabas na hindi pagkakasundo. Gayundin, maaari mong i-set up ang AI upang ipagpalagay na ang AI ay itinuturing na "tama" sa tuwing ang isang tao ay hindi sumasang-ayon sa AI. Gusto kong linawin na magagawa natin iyon sa pamamagitan ng program kung nais nating gawin ito. Sinasabi ko kahit na sa pangkalahatan, hindi ito palaging mangyayari. May mga tiyak na setting kung saan hindi natin alam nang maaga kung ang AI ay "tama" o ang tao ay "tama" sa mga tuntunin ng pagpili sa isa o sa isa pa sa isang hindi pagkakasundo na may kaugnayan sa isang naibigay na gawain.

Dinala kita sa isang napakahalaga at napakakomplikadong tanong.

Ano ang dapat nating gawin kapag naganap ang isang propesyonal na hindi pagkakasundo sa pagitan ng human-in-the-loop at AI (o, katumbas nito, maaari nating sabihin ito bilang nasa pagitan ng AI at ng human-in-the-loop)?

Huwag subukang iwasan ang tanong.

Maaaring magtaltalan ang ilan na hindi ito mangyayari, ngunit tulad ng inilatag ko sa aking halimbawa tungkol sa kotse, tiyak na maaaring mangyari ito. Ang ilan ay maaaring magtaltalan na ang isang tao ay malinaw na nakahihigit at dapat na maging panalo sa anumang hindi pagkakasundo. Ang aking halimbawa ng kotse at ang brick wall ay nagpatumba sa isang iyon. May mga tagapagtaguyod ng AI na maaaring igiit na ang AI ang dapat ang panalo, dahil sa diumano'y nadaig nila ang mga emosyon ng tao at walang kabuluhang pag-iisip ng mga walang kwentang taong iyon na malabo ang pag-iisip. Muli, ang aking iba pang halimbawa na sumasama sa kotse na papunta sa kanal ay nagpapababa sa pahayag na iyon.

Sa totoong mundo, ang AI at ang mga tao ay hindi magkasundo, kahit na ang dalawa ay sadyang dinala sa isang sitwasyon ng pagtutulungan upang magsagawa ng magkasanib na gawain. Mangyayari ito. Hindi natin mailalagay ang ating mga ulo sa buhangin at magpanggap na hindi ito mangyayari.

Nakita namin na ang mga taong nagpi-pilot sa eroplano ay tila nagkaroon ng hindi pagkakasundo. Buti na lang at pumayag sila na hindi sumang-ayon, so parang. Dinala nila ang eroplano pabalik sa terminal. Nakahanap sila ng paraan upang harapin ang hindi pagkakasundo. Ang paglutas sa kanilang hindi pagkakasundo ay gumana nang maayos, kung ihahambing sa kung marahil sila ay napunta sa mga fisticuff sa sabungan o marahil ay lumipad sa hangin at patuloy na nakikipaglaban sa isa't isa. Iyon ay isang malungkot na senaryo na hindi mapanghawakan, at maaari tayong magpasalamat na hindi nangyari.

Pahintulutan akong ibigay ang aking listahan ng iba't ibang paraan kung saan maaaring malutas ang mga hindi pagkakasundo ng AI at human-in-the-loop (o, human-in-the-loop at AI):

  • Ang AI at ang pinagsama-samang tao ay gumagawa ng mga bagay-bagay (mapayapa man o hindi)
  • Nangibabaw ang tao sa AI, bilang default
  • Nangibabaw ang AI sa tao, bilang default
  • Ang ilang iba pang paunang natukoy na nakapirming resolution ay nananaig, bilang default
  • Ang third-party na tao ay naka-loop-in at ang kanilang indikasyon ay nangingibabaw sa mga partido
  • Ang third-party na AI ay naka-loop-in at ang indikasyon nito ay nangingibabaw sa mga partido
  • Pinapalitan ng third-party na tao ang umiiral na tao, nagpapatuloy muli ang mga bagay
  • Pinapalitan ng third-party AI ang kasalukuyang AI, nagpapatuloy ang mga bagay-bagay
  • Pinapalitan ng third-party na tao ang umiiral na AI, nagpapatuloy ang mga bagay-bagay (ngayon ay human-to-human)
  • Pinapalitan ng third-party AI ang kasalukuyang tao, nagpapatuloy muli ang mga bagay (ngayon ay AI-to-AI)
  • iba

Ang mga iyon ay karapat-dapat na ma-unpack.

Bago pumasok sa ilang higit pang karne at patatas tungkol sa ligaw at malabong pagsasaalang-alang na pinagbabatayan kung paano haharapin ang AI at mga hindi pagkakasundo ng tao, maglatag tayo ng ilang karagdagang batayan sa mga mahahalagang paksa. Kailangan nating magsagawa ng maikling pagsisid sa AI Ethics at lalo na sa pagdating ng Machine Learning (ML) at Deep Learning (DL).

Maaaring malabo mong batid na ang isa sa pinakamalakas na boses sa mga araw na ito sa larangan ng AI at maging sa labas ng larangan ng AI ay binubuo ng paghahabol para sa isang mas malaking pagkakatulad ng Etikal na AI. Tingnan natin kung ano ang ibig sabihin ng pagtukoy sa AI Ethics at Ethical AI. Higit pa rito, tutuklasin natin kung ano ang ibig kong sabihin kapag nagsasalita ako ng Machine Learning at Deep Learning.

Ang isang partikular na segment o bahagi ng AI Ethics na nakakakuha ng maraming atensyon ng media ay binubuo ng AI na nagpapakita ng hindi kanais-nais na mga bias at hindi pagkakapantay-pantay. Maaaring alam mo na noong nagsimula ang pinakabagong panahon ng AI, nagkaroon ng malaking pagsabog ng sigasig para sa tinatawag ngayon ng ilan. AI For Good. Sa kasamaang palad, sa mga takong ng bumubulusok na kaguluhan na iyon, nagsimula kaming masaksihan AI Para sa Masama. Halimbawa, ang iba't ibang mga sistema ng pagkilala sa mukha na nakabatay sa AI ay ipinakita bilang naglalaman ng mga pagkiling sa lahi at mga bias ng kasarian, na tinalakay ko sa ang link dito.

Mga pagsisikap na lumaban AI Para sa Masama ay aktibong isinasagawa. Bukod sa maingay legal mga hangarin ng pagpigil sa maling gawain, mayroon ding malaking pagtulak patungo sa pagyakap sa AI Ethics upang ituwid ang karahasan ng AI. Ang paniwala ay dapat nating gamitin at i-endorso ang mga pangunahing prinsipyo ng Etikal na AI para sa pagbuo at paglalagay ng AI na ginagawa ito upang mabawasan ang AI Para sa Masama at sabay na nagbabadya at nagtataguyod ng mas kanais-nais AI For Good.

Sa isang kaugnay na paniwala, ako ay isang tagapagtaguyod ng pagsisikap na gamitin ang AI bilang bahagi ng solusyon sa mga problema ng AI, paglaban sa apoy gamit ang apoy sa ganoong paraan ng pag-iisip. Halimbawa, maaari naming i-embed ang mga bahagi ng Ethical AI sa isang AI system na susubaybayan kung paano ginagawa ng iba pang AI ang mga bagay at sa gayon ay potensyal na mahuli sa real-time ang anumang mga pagsisikap na may diskriminasyon, tingnan ang aking talakayan sa ang link dito. Maaari rin tayong magkaroon ng hiwalay na AI system na gumaganap bilang isang uri ng AI Ethics monitor. Ang sistema ng AI ay nagsisilbing isang tagapangasiwa upang subaybayan at makita kung kailan ang isa pang AI ay napupunta sa hindi etikal na kailaliman (tingnan ang aking pagsusuri sa gayong mga kakayahan sa ang link dito).

Sa ilang sandali, ibabahagi ko sa iyo ang ilang pangkalahatang mga prinsipyo na pinagbabatayan ng AI Ethics. Mayroong maraming mga ganitong uri ng mga listahan na lumulutang dito at doon. Maaari mong sabihin na wala pang isang solong listahan ng unibersal na apela at pagsang-ayon. Yan ang nakakalungkot na balita. Ang magandang balita ay kahit papaano mayroong mga madaling magagamit na listahan ng AI Ethics at malamang na magkapareho ang mga ito. Ang lahat ng sinabi, ito ay nagmumungkahi na sa pamamagitan ng isang paraan ng makatwirang convergence ng mga uri na hinahanap namin ang aming paraan patungo sa isang pangkalahatang pagkakatulad ng kung ano ang binubuo ng AI Ethics.

Una, saklawin natin nang maikli ang ilan sa mga pangkalahatang tuntunin ng Etikal na AI upang ilarawan kung ano ang dapat na mahalagang pagsasaalang-alang para sa sinumang gumagawa, naglalagay, o gumagamit ng AI.

Halimbawa, tulad ng sinabi ng Vatican sa Panawagan ng Roma Para sa Etika ng AI at gaya ng tinakpan ko ng malalim sa ang link dito, ito ang kanilang natukoy na anim na pangunahing prinsipyo sa etika ng AI:

  • Transparency: Sa prinsipyo, ang mga AI system ay dapat na maipaliwanag
  • Pagsasama: Ang mga pangangailangan ng lahat ng tao ay dapat isaalang-alang upang ang lahat ay makinabang, at ang lahat ng indibidwal ay maihandog ang pinakamahusay na posibleng mga kondisyon upang ipahayag ang kanilang sarili at umunlad.
  • Responsibilidad: Ang mga nagdidisenyo at nagde-deploy ng paggamit ng AI ay dapat magpatuloy nang may pananagutan at transparency
  • Pagkakaiba-iba: Huwag lumikha o kumilos ayon sa pagkiling, kaya pinangangalagaan ang pagiging patas at dignidad ng tao
  • Kahusayan: Dapat na gumana nang mapagkakatiwalaan ang mga AI system
  • Seguridad at privacy: Dapat gumana nang ligtas ang mga AI system at igalang ang privacy ng mga user.

Gaya ng sinabi ng US Department of Defense (DoD) sa kanilang Mga Etikal na Prinsipyo Para sa Paggamit ng Artipisyal na Katalinuhan at gaya ng tinakpan ko ng malalim sa ang link dito, ito ang kanilang anim na pangunahing prinsipyo sa etika ng AI:

  • Responsable: Ang mga tauhan ng DoD ay gagamit ng mga naaangkop na antas ng paghatol at pangangalaga habang nananatiling responsable para sa pagbuo, pag-deploy, at paggamit ng mga kakayahan ng AI.
  • Pantay-pantay: Magsasagawa ang Departamento ng mga sadyang hakbang upang mabawasan ang hindi sinasadyang pagkiling sa mga kakayahan ng AI.
  • Nasusubaybayan: Ang mga kakayahan sa AI ng Departamento ay bubuo at ipapakalat upang ang mga nauugnay na tauhan ay nagtataglay ng naaangkop na pag-unawa sa teknolohiya, mga proseso ng pag-unlad, at mga pamamaraan ng pagpapatakbo na naaangkop sa mga kakayahan ng AI, kabilang ang mga transparent at naa-audit na pamamaraan, pinagmumulan ng data, at pamamaraan at dokumentasyon ng disenyo.
  • reliable: Ang mga kakayahan ng AI ng Departamento ay magkakaroon ng tahasan, mahusay na tinukoy na mga paggamit, at ang kaligtasan, seguridad, at pagiging epektibo ng mga naturang kakayahan ay sasailalim sa pagsubok at katiyakan sa loob ng mga tinukoy na paggamit sa kanilang buong lifecycle.
  • Mapapamahalaan: Ang Departamento ay magdidisenyo at mag-iinhinyero ng mga kakayahan ng AI upang matupad ang kanilang mga nilalayon na pag-andar habang nagtataglay ng kakayahang makita at maiwasan ang mga hindi sinasadyang kahihinatnan, at ang kakayahang alisin o i-deactivate ang mga naka-deploy na system na nagpapakita ng hindi sinasadyang pag-uugali.

Tinalakay ko rin ang iba't ibang mga kolektibong pagsusuri ng mga prinsipyo ng etika ng AI, kabilang ang pagsaklaw sa isang set na ginawa ng mga mananaliksik na nagsuri at nagkondensasyon sa kakanyahan ng maraming pambansa at internasyonal na mga alituntunin sa etika ng AI sa isang papel na pinamagatang "The Global Landscape Of AI Ethics Guidelines" (nai-publish sa Kalikasan), at tinutuklasan ng aking saklaw sa ang link dito, na humantong sa listahan ng keystone na ito:

  • Aninaw
  • Katarungan at Pagkamakatarungan
  • Non-Maleficence
  • Pananagutan
  • Privacy
  • Pagkabenta
  • Kalayaan at Autonomy
  • Pagkatiwalaan
  • Pagpapanatili
  • Dignidad
  • Pagkakaisa

Tulad ng maaari mong direktang hulaan, ang pagsisikap na i-pin down ang mga detalye na pinagbabatayan ng mga prinsipyong ito ay maaaring maging lubhang mahirap gawin. Higit pa rito, ang pagsisikap na gawing isang bagay na ganap na nahahawakan at sapat na detalyadong magagamit kapag gumagawa ng mga AI system ay mahirap ding basagin. Madaling gawin sa pangkalahatan ang ilang handwaving tungkol sa kung ano ang mga alituntunin ng AI Ethics at kung paano dapat itong sundin sa pangkalahatan, habang ito ay isang mas kumplikadong sitwasyon sa AI coding na kailangang maging ang tunay na goma na nakakatugon sa kalsada.

Ang mga prinsipyo ng AI Ethics ay dapat gamitin ng mga developer ng AI, kasama ang mga namamahala sa mga pagsusumikap sa pagpapaunlad ng AI, at maging ang mga sa huli ay naglalagay at nagsasagawa ng pangangalaga sa mga AI system. Ang lahat ng mga stakeholder sa buong AI life cycle ng pag-unlad at paggamit ay isinasaalang-alang sa loob ng saklaw ng pagsunod sa mga itinatag na pamantayan ng Ethical AI. Ito ay isang mahalagang highlight dahil ang karaniwang pagpapalagay ay ang "mga coder lamang" o ang mga nagprograma sa AI ay napapailalim sa pagsunod sa mga paniwala sa AI Ethics. Gaya ng naunang sinabi, kailangan ng isang nayon upang makabuo at maglagay ng AI, at kung saan ang buong nayon ay dapat sanay at sumunod sa mga tuntunin ng AI Ethics.

Siguraduhin din natin na tayo ay nasa parehong pahina tungkol sa likas na katangian ng AI ngayon.

Walang anumang AI ngayon na nakakaramdam. Wala kaming ganito. Hindi namin alam kung magiging posible ang sentient AI. Walang sinuman ang maaaring mahuhulaan kung makakamit natin ang sentient AI, o kung ang sentient AI ay kahit papaano ay miraculously kusang lalabas sa isang anyo ng computational cognitive supernova (karaniwang tinutukoy bilang ang singularity, tingnan ang aking coverage sa ang link dito).

Ang uri ng AI na pinagtutuunan ko ng pansin ay binubuo ng non-sentient AI na mayroon tayo ngayon. Kung gusto nating mag-isip-isip tungkol sa nagbabago AI, ang talakayang ito ay maaaring pumunta sa ibang direksyon. Ang isang pakiramdam na AI ay dapat na may kalidad ng tao. Kailangan mong isaalang-alang na ang sentient AI ay ang cognitive equivalent ng isang tao. Higit pa rito, dahil ang ilan ay nag-iisip na maaari tayong magkaroon ng super-intelligent na AI, maiisip na ang naturang AI ay maaaring maging mas matalino kaysa sa mga tao (para sa aking paggalugad ng super-intelligent na AI bilang isang posibilidad, tingnan ang ang coverage dito).

Panatilihin natin ang mga bagay na mas down to earth at isaalang-alang ang computational non-sentient AI ngayon.

Napagtanto na ang AI ngayon ay hindi nagagawang "mag-isip" sa anumang paraan na katumbas ng pag-iisip ng tao. Kapag nakipag-ugnayan ka kay Alexa o Siri, ang mga kakayahan sa pakikipag-usap ay maaaring mukhang katulad ng mga kapasidad ng tao, ngunit ang katotohanan ay ito ay computational at walang katalinuhan ng tao. Ang pinakabagong panahon ng AI ay gumawa ng malawakang paggamit ng Machine Learning (ML) at Deep Learning (DL), na gumagamit ng computational pattern matching. Ito ay humantong sa mga AI system na may hitsura ng mga proclivities na tulad ng tao. Samantala, walang anumang AI ngayon na may kamukha ng sentido komun at wala ring anumang nakakaisip na pagtataka ng matatag na pag-iisip ng tao.

Ang ML/DL ay isang anyo ng computational pattern matching. Ang karaniwang diskarte ay ang mag-ipon ka ng data tungkol sa isang gawain sa paggawa ng desisyon. Ipapakain mo ang data sa mga modelo ng ML/DL computer. Ang mga modelong iyon ay naghahangad na makahanap ng mga pattern ng matematika. Matapos mahanap ang gayong mga pattern, kung ito ay natagpuan, gagamitin ng AI system ang mga pattern na iyon kapag nakatagpo ng bagong data. Sa pagtatanghal ng bagong data, ang mga pattern na batay sa "luma" o makasaysayang data ay inilapat upang mag-render ng kasalukuyang desisyon.

Sa tingin ko maaari mong hulaan kung saan ito patungo. Kung ang mga tao na gumagawa ng pattern sa mga desisyon ay nagsasama ng mga hindi kanais-nais na pagkiling, malamang na ang data ay nagpapakita nito sa banayad ngunit makabuluhang mga paraan. Ang Machine Learning o Deep Learning computational pattern matching ay susubukan lang na mathematically gayahin ang data nang naaayon. Walang pagkakahawig ng sentido komun o iba pang nakikitang aspeto ng AI-crafted modeling per se.

Higit pa rito, maaaring hindi napagtanto ng mga developer ng AI kung ano ang nangyayari. Ang arcane mathematics sa ML/DL ay maaaring magpahirap sa pag-iwas sa mga nakatagong bias ngayon. Nararapat kang umasa at aasahan na ang mga developer ng AI ay susubok para sa mga potensyal na nakabaon na bias, kahit na ito ay mas nakakalito kaysa sa tila. Mayroong matatag na pagkakataon na kahit na may medyo malawak na pagsubok na magkakaroon pa rin ng mga bias na naka-embed sa loob ng mga pattern na tumutugma sa mga modelo ng ML/DL.

Medyo maaari mong gamitin ang sikat o kasumpa-sumpa na kasabihan ng garbage-in garbage-out. Ang bagay ay, ito ay mas katulad sa mga biases-in na insidiously makakuha infused bilang biases lumubog sa loob ng AI. Ang algorithm na paggawa ng desisyon (ADM) ng AI ay axiomatically nagiging puno ng hindi pagkakapantay-pantay.

Hindi maganda.

Bumalik tayo sa ating pagtuon sa mga hindi pagkakasundo sa pagitan ng AI at isang tao.

Nauna kong sinabi na ito ang ilan sa mga diskarte sa paglutas ng hindi pagkakasundo:

  • Ang AI at ang pinagsama-samang tao ay gumagawa ng mga bagay-bagay (mapayapa man o hindi)
  • Nangibabaw ang tao sa AI, bilang default
  • Nangibabaw ang AI sa tao, bilang default
  • Ang ilang iba pang paunang natukoy na nakapirming resolution ay nananaig, bilang default
  • Ang third-party na tao ay naka-loop-in at ang kanilang indikasyon ay nangingibabaw sa mga partido
  • Ang third-party na AI ay naka-loop-in at ang indikasyon nito ay nangingibabaw sa mga partido
  • Pinapalitan ng third-party na tao ang umiiral na tao, nagpapatuloy muli ang mga bagay
  • Pinapalitan ng third-party AI ang kasalukuyang AI, nagpapatuloy ang mga bagay-bagay
  • Pinapalitan ng third-party na tao ang umiiral na AI, nagpapatuloy ang mga bagay-bagay (ngayon ay human-to-human)
  • Pinapalitan ng third-party AI ang kasalukuyang tao, nagpapatuloy muli ang mga bagay (ngayon ay AI-to-AI)
  • iba

Oras na para i-unpack ang mga ito.

Una, isaalang-alang na ito ay tungkol sa lahat propesyonal mga hindi pagkakasundo.

Ang isang propesyonal na hindi pagkakasundo ay maluwag na tinukoy bilang isang hindi pagkakasundo na nauugnay sa isang gawaing nauugnay sa trabaho.

Halimbawa, ang isang hindi pagkakasundo na lumitaw sa pagitan ng isang piloto at copilot tungkol sa kung magpapatuloy sa isang flight na nahaharap sa isang bagyo ay maaaring makatwirang ma-label bilang isang propesyonal na hindi pagkakasundo. Sa kabaligtaran, ang isang matinding hindi pagkakasundo sa kung aling brand ng kape ang itinataguyod ng piloto kumpara sa brand na mas gusto ng copilot ay madaling ikinategorya bilang isang hindi propesyonal na hindi pagkakasundo sa partikular na kontekstong ito.

Siyempre, kung ang isang hindi propesyonal na hindi pagkakasundo ay mauuwi sa isang propesyonal na hindi pagkakasundo, maaari tayong maging interesado sa hindi propesyonal na hindi pagkakasundo bilang isang ipagpalagay na pinagmulan o spark para sa propesyonal. Isipin na ang isang piloto at copilot ay mahigpit na nagtatalo kung aling brand ng kape ang pinakamaganda, na pagkatapos ay ikinalulungkot na napupunta sa mga alalahanin na partikular sa flight (pun!), gaya ng kung aalis o hindi.

Pangalawa, kailangan nating isaisip ang laki ng hindi pagkakasundo ng propesyonal.

Marahil ang piloto at copilot o sa banayad na hindi pagkakasundo sa paglipad. Hindi sila magkaaway at pinag-iisipan lamang ang mga kalamangan at kahinaan kung mag-takeoff. Hindi ito ang kalibre o magnitude ng isang propesyonal na hindi pagkakasundo na karaniwan naming isinasaalang-alang dito. Ang bagay ay, maaaring ang propesyonal na hindi pagkakasundo ay panandalian at ang parehong partido ay gumagawa ng isang resolusyon nang buong puso o hindi bababa sa isang napapanahong batayan. Sa pangkalahatan, ang pokus ng propesyonal na hindi pagkakasundo sa loob ng saklaw ay ang mga tila hindi maaalis, at ang dalawang partido ay nananatiling matatag sa hindi pagkakasundo.

Pangatlo, karaniwang kailangang may seryosong bagay sa linya para matupad ang mga alituntuning ito.

Ang pagpili na lumipad o hindi lumipad ay isang tiyak na uri ng desisyon sa buhay-o-kamatayan kung ang paglipad ay nasa panganib dahil sa isang bagyo o ang eroplano ay itinuturing na hindi ganap na handa para sa naturang paglalakbay. Seryosong negosyo ito. Maaari pa rin naming ilapat ang mga alituntunin sa mga hindi gaanong maimpluwensyang propesyonal na hindi pagkakasundo kahit na maaaring mas nakakaabala kaysa sa nararapat.

Okay, ang aming mga pagsasaalang-alang ay na:

  • Ang hindi pagkakasundo ay pangunahing nakatuon sa propesyonal kaysa sa isang bagay na hindi propesyonal
  • Ang hindi pagkakasundo ay may likas na katangian at hindi lamang panandalian o kung hindi man ay madaling malutas
  • Ang hindi pagkakasundo ay naghuhula ng malubhang kahihinatnan at kadalasan ay may epektong resulta
  • Ang mga partido ay nag-aaway at sila ay tila mahirap hawakan

Tingnan natin ngayon ang bawat isa sa aking mga iminungkahing alituntunin o diskarte tungkol sa kung paano makayanan ang gayong mga propesyonal na hindi pagkakasundo.

Ang AI at ang pinagsama-samang tao ay gumagawa ng mga bagay-bagay (mapayapa man o hindi)

Sinimulan ko ang listahan na may tuwirang posibilidad na ang AI at ang human-in-the-loop ay kayang lutasin ang propesyonal na hindi pagkakasundo sa kanilang mga sarili. Mukhang ang halimbawa ng dalawang tao, ang piloto at copilot ay naglalarawan ng ganitong uri ng pangyayari. Napagpasyahan nilang bumalik sa terminal at maghiwalay ng landas. Maaaring ang isang AI system at ang isang tao ay makakaisip ng isang paraan sa pagresolba na sa pangkalahatan ay kasiya-siya sa magkabilang panig at ang bagay ay sa gayon ay kasiya-siyang natapos.

Nangibabaw ang tao sa AI, bilang default

Kapag nagse-set up ng AI, maaari kaming mag-program ng isang panuntunan na nagsasabing ang human-in-the-loop ay palaging mananaig sa tuwing may propesyunal na hindi pagkakasundo. Ito ang magiging tahasang naka-code na default. Maaari rin nating payagan ang ilang paraan ng pag-override, kung sakali, kahit na ang nakatayong tuntunin ay ang mananaig ang tao.

Nangibabaw ang AI sa tao, bilang default

Kapag nagse-set up ng AI, maaari kaming mag-program ng panuntunan na nagsasabing palaging mananaig ang AI kaysa sa human-in-the-loop sa tuwing magkakaroon ng propesyonal na hindi pagkakasundo. Ito ang tahasang naka-code na default. Maaari din naming payagan ang ilang paraan ng pag-override, kung sakali, kahit na ang nakatayong panuntunan ay ang AI ang mananaig.

Ang ilang iba pang paunang natukoy na nakapirming resolution ay nananaig, bilang default

Kapag nagse-set up ng AI, maaari kaming mag-program ng isang panuntunan na nagsasabing ang ilang iba pang paunang natukoy na nakapirming resolution ay mangingibabaw sa tuwing may propesyonal na hindi pagkakasundo sa human-in-the-loop. Ang human-in-the-loop ay hindi namamayani bilang default. Ang AI ay hindi nananaig bilang default. Mayroong ilang iba pang naunang natukoy na resolusyon. Halimbawa, marahil mayroong paghahagis ng barya na gagamitin upang magpasya kung alin sa dalawang partido ang itinuturing na tamang landas na tatahakin. Iyon ay malinaw na mukhang arbitrary; kaya isa pang halimbawang diskarte ay ang isang dalubhasang panuntunan ay nagsisimula na kinakalkula ang isang halaga batay sa mga input mula sa dalawang partido at dumating sa isang resulta bilang isang tiebreaker.

Ang third-party na tao ay naka-loop-in at ang kanilang indikasyon ay nangingibabaw sa mga partido

Sa isang propesyonal na hindi pagkakasundo, ang isang panuntunan ay maaaring ang isang ikatlong partido na isang tao ay hinihimok at umiikot sa setting upang gumawa ng desisyon tungkol sa paglutas ng hindi pagkakasundo. Ang AI ay naka-program upang ipagpaliban ang anumang desisyon ng third-party na tao. Ang tao na nasa human-in-the-loop ay nauna nang itinagubilin na kung ang ganitong sitwasyon ay lumitaw, sila rin ay dapat na ipagpaliban ang ikatlong partidong tao. Bilang isang tabi, malamang na mahulaan mo na ang human-in-the-loop ay maaaring magkaroon ng pagkabalisa sa pag-access sa anumang pagpapasya ng third-party na tao kung ang desisyon ay hindi sumasang-ayon sa human-in-the-loop na postura.

Ang third-party na AI ay naka-loop-in at ang indikasyon nito ay nangingibabaw sa mga partido

Sa isang propesyonal na hindi pagkakasundo, ang isang panuntunan ay maaaring ang isang third party na ibang AI system ay hinihimok at ini-loop sa setting upang makagawa ng desisyon tungkol sa pagresolba sa hindi pagkakasundo. Ang orihinal na AI ay naka-program upang ipagpaliban ang anumang desisyon ng third-party na AI. Ang tao na nasa human-in-the-loop ay inutusan nang una na kung ang ganoong sitwasyon ay lumitaw, sila rin ay dapat na ipagpaliban ang third-party na AI. Bilang isang tabi, malamang na mahulaan mo na ang human-in-the-loop ay maaaring magkaroon ng pagkabalisa sa pag-access sa anumang pagpapasya ng third-party AI kung ang desisyon ay hindi sumasang-ayon sa human-in-the-loop na postura.

Pinapalitan ng third-party na tao ang umiiral na tao, nagpapatuloy muli ang mga bagay

Sa isang propesyonal na hindi pagkakasundo, ang human-in-the-loop ay papalitan ng isang third party na isang tao at iyon ang magiging human-in-the-loop. Ang tao na orihinal na human-in-the-loop para sa gawain ay hindi na itinuturing na bahagi ng gawain sa kamay. Ito ay isang bukas na aspeto kung ano ang mangyayari sa pinalitan na ngayong human-in-the-loop, ngunit sinasabi namin na tiyak na wala na silang anumang patuloy na papel sa gawain sa trabaho.

Pinapalitan ng third-party AI ang kasalukuyang AI, nagpapatuloy ang mga bagay-bagay

Sa isang propesyonal na hindi pagkakasundo, ang AI ay papalitan ng isang third-party na AI at iyon ang magiging AI simula ngayon na ginagamit para sa gawaing gawain. Ang AI na orihinal na ginagamit para sa gawain ay hindi na itinuturing na bahagi ng gawain sa kamay. Ito ay isang bukas na aspeto kung ano ang mangyayari sa pinalitan na ngayon ng AI, ngunit sinasabi namin na tiyak na ang AI ay wala nang anumang patuloy na tungkulin sa gawain sa trabaho.

Pinapalitan ng third-party na tao ang umiiral na AI, nagpapatuloy ang mga bagay-bagay (ngayon ay human-to-human)

Sa isang propesyonal na hindi pagkakasundo, ang AI ay papalitan ng isang third-party na tao kung saan ang taong iyon ay ngayon ay itinuturing na co-team na partido na gagamitin para sa gawain sa trabaho. Ang AI na orihinal na ginagamit para sa gawain ay hindi na itinuturing na bahagi ng gawain sa kamay. Ito ay isang bukas na aspeto kung ano ang mangyayari sa pinalitan na ngayon ng AI, ngunit sinasabi namin na tiyak na ang AI ay wala nang anumang patuloy na tungkulin sa gawain sa trabaho. Sa madaling salita, ito ngayon ay nagiging isang two-party na tao-sa-tao na ginanap na gawain.

Pinapalitan ng third-party AI ang kasalukuyang tao, nagpapatuloy muli ang mga bagay (ngayon ay AI-to-AI)

Sa isang propesyonal na hindi pagkakasundo, ang human-in-the-loop ay papalitan ng isang third-party na AI at ang AI na ito ang magiging susunod na fill-in para sa naunang human-in-the-loop. Ang tao na orihinal na human-in-the-loop para sa gawain ay hindi na itinuturing na bahagi ng gawain sa kamay. Ito ay isang bukas na aspeto kung ano ang mangyayari sa pinalitan na ngayong human-in-the-loop, ngunit sinasabi namin na tiyak na wala na silang anumang patuloy na papel sa gawain sa trabaho. Sa madaling salita, ito ngayon ay nagiging isang dalawang-partido na AI-to-AI upang maisagawa ang gawain.

iba

Ang iba pang mga pagkakaiba-iba ay maaaring gawin upang makayanan ang isang propesyonal na hindi pagkakasundo, ngunit tinalakay namin dito ang ilan sa mga pangunahing bato.

Paano tayo magpapasya kung alin sa mga pamamaraang iyon ang magiging tama para sa isang partikular na sitwasyon?

Ang isang malawak na iba't ibang mga isyu ay napupunta sa paggawa ng gayong pagpili. May mga teknolohikal na pagsasaalang-alang. May mga pagsasaalang-alang sa negosyo. May mga legal at etikal na pagsasaalang-alang.

Sa ilang antas, iyon ang dahilan kung bakit ang AI Ethics at Ethical AI ay isang napakahalagang paksa. Ang mga tuntunin ng AI Ethics ay nagdudulot sa atin na manatiling mapagbantay. Ang mga technologist ng AI ay maaaring minsan ay maging abala sa teknolohiya, lalo na ang pag-optimize ng high-tech. Hindi nila kinakailangang isaalang-alang ang mas malalaking epekto sa lipunan. Ang pagkakaroon ng mindset ng AI Ethics at ang paggawa nito nang buong-buo sa pagbuo at fielding ng AI ay mahalaga para sa paggawa ng naaangkop na AI, kasama na (marahil nakakagulat o balintuna) ang pagtatasa kung paano pinagtibay ng mga kumpanya ang AI Ethics.

Bukod sa paggamit ng mga alituntunin sa AI Ethics sa pangkalahatan, may katumbas na tanong kung dapat ba tayong magkaroon ng mga batas upang pamahalaan ang iba't ibang paggamit ng AI. Ang mga bagong batas ay inilalagay sa paligid sa pederal, estado, at lokal na antas na may kinalaman sa hanay at kalikasan ng kung paano dapat gawin ang AI. Ang pagsisikap na bumalangkas at magpatibay ng mga naturang batas ay unti-unti. Ang AI Ethics ay nagsisilbing isang itinuturing na stopgap, sa pinakamababa, at halos tiyak na sa ilang antas ay direktang isasama sa mga bagong batas na iyon.

Magkaroon ng kamalayan na ang ilan ay matatag na nangangatuwiran na hindi namin kailangan ng mga bagong batas na sumasaklaw sa AI at na ang aming mga kasalukuyang batas ay sapat na. Sa katunayan, nagbabala sila na kung gagawin natin ang ilan sa mga batas na ito ng AI, papatayin natin ang ginintuang gansa sa pamamagitan ng pagpigil sa mga pagsulong sa AI na nagbibigay ng napakalaking pakinabang sa lipunan.

Sa puntong ito ng mabigat na talakayan na ito, tataya ako na gusto mo ng ilang mga halimbawang nakapagpapakita na maaaring magpakita ng paksang ito. Mayroong isang espesyal at tiyak na sikat na hanay ng mga halimbawa na malapit sa aking puso. Nakikita mo, sa aking kapasidad bilang isang eksperto sa AI kasama ang etikal at legal na mga epekto, madalas akong hinihiling na tumukoy ng mga makatotohanang halimbawa na nagpapakita ng mga dilemma ng AI Ethics upang ang medyo teoretikal na katangian ng paksa ay mas madaling maunawaan. Ang isa sa mga pinaka-evocative na lugar na malinaw na nagpapakita ng etikal na AI quandary na ito ay ang pagdating ng AI-based na tunay na self-driving na mga kotse. Ito ay magsisilbing isang madaling gamiting kaso o halimbawa para sa sapat na talakayan sa paksa.

Narito ang isang kapansin-pansing tanong na dapat pag-isipan: Ang pagdating ba ng mga totoong self-driving na sasakyan na nakabatay sa AI ay nagpapaliwanag ng anuman tungkol sa mga resolusyon ng hindi pagkakasundo ng AI-at-tao, at kung gayon, ano ang ipinapakita nito?

Bigyan mo ako ng ilang sandali na i-unpack ang tanong.

Una, tandaan na walang taong driver na kasangkot sa isang tunay na self-driving na kotse. Tandaan na ang mga totoong self-driving na kotse ay hinimok sa pamamagitan ng AI driving system. Hindi na kailangan ng taong nagmamaneho sa gulong, at walang probisyon para sa tao na magmaneho ng sasakyan. Para sa aking malawak at patuloy na saklaw ng Autonomous Vehicles (AVs) at lalo na ang mga self-driving na sasakyan, tingnan ang ang link dito.

Gusto kong linawin pa kung ano ang ibig sabihin kapag tinutukoy ko ang mga totoong self-driving na kotse.

Pag-unawa sa Mga Antas Ng Mga Kotse na Nagmamaneho ng Sarili

Bilang paglilinaw, ang mga tunay na self-driving na kotse ay ang mga kung saan ang AI ang ganap na nagmamaneho sa kotse nang mag-isa at walang anumang tulong ng tao sa panahon ng gawain sa pagmamaneho.

Ang mga sasakyang walang driver na ito ay itinuturing na Antas 4 at Antas 5 (tingnan ang aking paliwanag sa ang link na ito dito), habang ang isang kotse na nangangailangan ng isang tao na driver na magbahagi ng pagsisikap sa pagmamaneho ay karaniwang isinasaalang-alang sa Antas 2 o Antas 3. Ang mga kotse na nagbabahagi ng gawain sa pagmamaneho ay inilalarawan bilang semi-autonomous, at karaniwang naglalaman ng iba't ibang uri ng mga awtomatikong add-on na tinutukoy bilang ADAS (Advanced Driver-Assistance Systems).

Wala pang totoong self-driving na kotse sa Level 5, at hindi pa namin alam kung posible itong makamit, o kung gaano katagal bago makarating doon.

Samantala, ang mga pagsusumikap sa Antas 4 ay unti-unting nagsisikap na makakuha ng ilang traksyon sa pamamagitan ng pagsailalim sa napakakitid at piling mga pagsubok sa pampublikong daanan, kahit na mayroong kontrobersya kung ang pagsubok na ito ay dapat payagan per se (tayo ay lahat ng buhay-o-kamatayang guinea pig sa isang eksperimento nagaganap sa aming mga highway at byways, ang ilan ay nakikipaglaban, tingnan ang aking saklaw sa ang link na ito dito).

Dahil ang mga kotse na semi-autonomous ay nangangailangan ng isang driver ng tao, ang pag-aampon ng mga uri ng mga kotse ay hindi magkakaiba sa iba kaysa sa pagmamaneho ng mga maginoo na sasakyan, kaya't hindi gaanong bago ang bawat se upang masakop ang tungkol sa mga ito sa paksang ito (bagaman, tulad ng makikita mo sa isang iglap, ang mga puntos na kasunod na ginawa ay karaniwang naaangkop).

Para sa mga semi-awtonomous na kotse, mahalaga na ang publiko ay kailangang paunang-hayag tungkol sa isang nakakagambalang aspeto na nagmula sa kani-kanina lamang, ibig sabihin, sa kabila ng mga driver ng tao na patuloy na nag-post ng mga video ng kanilang mga sarili na natutulog sa gulong ng isang Antas 2 o Antas 3 na kotse , kailangan nating lahat na maiwasan ang malinlang sa paniniwala na ang driver ay maaaring mag-alis ng kanilang pansin mula sa gawain sa pagmamaneho habang nagmamaneho ng isang semi-awtonomous na kotse.

Ikaw ang responsableng partido para sa mga aksyon sa pagmamaneho ng sasakyan, anuman ang maaaring awtomatikong ihulog sa isang Antas 2 o Antas 3.

Self-Driving Cars At AI-Versus-Human Disagreement

Para sa Antas 4 at Antas 5 tunay na mga sasakyan sa pagmamaneho sa sarili, walang magiging driver ng tao na kasangkot sa gawain sa pagmamaneho.

Lahat ng mga nasasakupan ay magiging mga pasahero.

Ang AI ay gumagawa ng pagmamaneho.

Ang isang aspeto na agad na tatalakayin ay nagsasaad ng katotohanan na ang AI na kasangkot sa mga AI system sa pagmamaneho ngayon ay hindi nagbabago. Sa madaling salita, ang AI ay kabuuan isang kolektibong pag-program na batay sa computer at mga algorithm, at walang katiyakan na hindi makatuwiran sa parehong pamamaraan na magagawa ng mga tao.

Bakit ito idinagdag na diin tungkol sa AI na hindi nagbabago?

Dahil nais kong bigyang diin na kapag tinatalakay ang papel ng system ng pagmamaneho ng AI, hindi ko inilahad ang mga katangian ng tao sa AI. Mangyaring magkaroon ng kamalayan na mayroong isang patuloy at mapanganib na pagkahilig sa mga araw na ito upang anthropomorphize AI. Sa esensya, ang mga tao ay nagtatalaga ng mala-tao na pakiramdam sa AI ngayon, sa kabila ng hindi maikakaila at hindi maikukuhang katotohanan na wala pang ganitong AI.

Sa paglilinaw na iyon, maaari mong isipin na ang AI sa pagmamaneho system ay hindi natural na kahit papaano ay "malaman" tungkol sa mga aspeto ng pagmamaneho. Ang pagmamaneho at lahat ng mga kinakailangan nito ay kailangang mai-program bilang bahagi ng hardware at software ng self-driving car.

Sumisid tayo sa napakaraming mga aspeto na maglaro sa paksang ito.

Una, mahalagang mapagtanto na hindi lahat ng AI self-driving na mga kotse ay pareho. Ang bawat automaker at self-driving tech firm ay gumagawa ng diskarte nito sa paggawa ng mga self-driving na kotse. Dahil dito, mahirap gumawa ng mga malawak na pahayag tungkol sa kung ano ang gagawin o hindi gagawin ng mga AI driving system.

Bukod dito, tuwing isinasaad na ang isang sistema ng pagmamaneho ng AI ay hindi gumagawa ng isang partikular na bagay, maaari itong, sa paglaon, ay abutan ng mga developer na sa katunayan ay program ang computer upang gawin ang bagay na iyon. Hakbang-hakbang, ang mga sistema ng pagmamaneho ng AI ay unti-unting napapabuti at pinalawak. Ang isang umiiral na limitasyon ngayon ay maaaring hindi na umiiral sa isang hinaharap na pag-ulit o bersyon ng system.

Umaasa ako na nagbibigay iyon ng sapat na litanya ng mga caveat upang salungguhitan ang aking iuugnay.

Para sa mga ganap na autonomous na sasakyan, maaaring walang anumang pagkakataon ng isang propesyonal na hindi pagkakasundo sa pagitan ng isang tao at ng AI dahil sa posibilidad na walang anumang human-in-the-loop na magsisimula. Ang adhikain para sa marami sa mga gumagawa ngayon ng self-driving na sasakyan ay ganap na alisin ang driver ng tao sa gawain sa pagmamaneho. Ang sasakyan ay hindi maglalaman ng mga kontrol sa pagmamaneho na naa-access ng tao. Kung ganoon, ang isang taong driver, kung naroroon, ay hindi makakasali sa gawain sa pagmamaneho dahil wala silang access sa anumang mga kontrol sa pagmamaneho.

Para sa ilang ganap na autonomous na sasakyan, pinapayagan pa rin ng ilang disenyo na maging in-the-loop ang isang tao, kahit na ang tao ay hindi kailangang maging available o makibahagi sa proseso ng pagmamaneho. Kaya, ang isang tao ay maaaring lumahok sa pagmamaneho, kung nais ng tao na gawin ito. Sa anumang punto ay umaasa ang AI sa tao upang maisagawa ang alinman sa mga gawain sa pagmamaneho.

Sa kaso ng mga semi-autonomous na sasakyan, mayroong magkahawak-kamay na relasyon sa pagitan ng human driver at ng AI. Ang driver ng tao ay maaaring ganap na pumalit sa mga kontrol sa pagmamaneho at mahalagang pigilan ang AI mula sa pakikibahagi sa pagmamaneho. Kung nais ng driver ng tao na ibalik ang AI sa tungkulin sa pagmamaneho, magagawa nila ito, kahit minsan pinipilit nito ang tao na bitawan ang mga kontrol sa pagmamaneho.

Ang isa pang anyo ng semi-autonomous na operasyon ay mangangailangan ng human driver at ang AI na nagtutulungan sa isang paraan ng pagtutulungan. Ang AI ang nagmamaneho at ang tao ang nagmamaneho. Sabay silang nagmamaneho. Maaaring ipagpaliban ng AI ang tao. Maaaring ipagpaliban ng tao ang AI.

Sa ilang sandali, ang sistema ng pagmamaneho ng AI at ang driver ng tao sa loop ay maaaring umabot sa isang sandali ng isang "propesyonal na hindi pagkakasundo" tungkol sa gawain sa pagmamaneho.

Upang ilarawan kung paano maaaring maging mahirap na ipatupad ang ilan sa mga nabanggit na tuntunin ng pagharap sa isang propesyonal na hindi pagkakasundo, isaalang-alang ang halimbawa ng pag-imbita sa isang third-party na tao na pumasok sa usapin at mag-alok ng desisyon upang malutas ang hindi nalutas na isyu.

Ipagpalagay na ang isang automaker o self-driving tech firm ay nag-ayos para sa mga remote na operator ng tao na magkaroon ng access sa mga kontrol sa pagmamaneho ng mga sasakyan sa loob ng kanilang fleet. Ang taong operator ay nakaupo sa ilang malayong opisina o katulad na lugar. Sa pamamagitan ng isang computer system, nagagawa nilang tingnan ang eksena sa pagmamaneho sa pamamagitan ng pag-access sa mga camera at iba pang sensor device na naka-load sa self-driving na kotse. Para sa kanila, ito ay halos tulad ng paglalaro ng isang online na video game, gayunpaman, siyempre, ang mga pangyayari sa totoong buhay ay may potensyal na malalang kahihinatnan.

Ang isang AI system at isang driver ng tao sa loob ng kotse ay nagmamaneho ng isang semi-autonomous na sasakyan sa isang mahabang highway. Biglang-bigla, ang AI ay gustong umiwas sa isang kanal. Ang driver ng tao ay hindi nais na gawin ito. Ang dalawa ay nag-aagawan sa mga kontrol sa pagmamaneho.

Paano ito mareresolba?

Marahil ay naitatag natin noon pa man na ang tao ay laging nananalo. Ipagpalagay bagaman na pinili naming huwag gawin iyon.

Maari sana naming nasimulan noon pa na ang AI ay laging nananalo. Ipagpalagay na pinili naming huwag gawin iyon. Sa kabuuan, hindi namin pinagtibay ang alinman sa mga panuntunang iyon, maliban sa nagpasya kaming payagan ang isang third-party na tao na mamagitan at lutasin ang isang propesyonal na hindi pagkakasundo ng anumang mahalagang katangian.

Sa ganitong kaso ng paggamit, ang AI at ang taong nagmamaneho sa gulong ay nakikipaglaban para sa mga kontrol sa pagmamaneho. Ito ay sabihin nating ipinarating sa remote na operator ng tao (ang ating third-party na tao). Sinusuri ng remote na operator ng tao kung ano ang nangyayari at nagpasyang umiwas sa kanal, na tila iniiwasan ang sinusubukang gawin ng AI. Kasabay nito, ipagpalagay na ang remote na operator ng tao ay humahantong sa paparating na trapiko, na marahil ay hindi gustong gawin ng AI o ng tao na driver sa loob ng kotse.

Ang punto ay ang paraan kung saan ipinatupad ang panuntunang ito ay ang third-party na human operator ay ganap na na-override ang AI at ang human-in-the-loop. Kung ito ay magbubunga ng magandang resulta ay tiyak na hindi sigurado.

Gagamitin ko ang halimbawang ito para i-highlight ang ilang karagdagang insight sa mga bagay na ito.

Hindi mo maaaring gawin ang walang pakundangan na pagpapalagay na dahil lamang sa isa sa mga panuntunang ito ay inilagay sa lugar ang kinalabasan ng nalutas na hindi pagkakasundo ay tiyak na isang garantisadong magandang resulta. Maaaring hindi ito. Walang anumang uri ng panuntunang palaging tamang-tama ang maaaring piliin.

Susunod, ang ilan sa mga panuntunang ito ay maaaring hindi maipatupad.

Isaalang-alang ang halimbawa ng remote na operator ng tao na nakikialam kapag ang AI at ang driver ng tao ay nag-aaway sa mga kontrol sa pagmamaneho. Maaaring tumagal ng maraming segundo ng oras para malaman ng remote na human operator kung ano ang nangyayari. Sa panahong iyon, ang sasakyan ay maaaring napunta na sa kanal o may iba pang masamang kinalabasan. Gayundin, ipagpalagay na ang lokasyon ng sasakyan ay humahadlang sa malayuang pag-access tulad ng pagpunta sa isang lugar kung saan walang anumang network electronic connectivity. O baka hindi gumagana ang mga feature sa networking ng sasakyan sa partikular na sandaling iyon.

Gaya ng nakikita mo, ang panuntunan ay maaaring magmukhang maganda sa papel, kahit na ang paglalagay ng panuntunan sa aktwal na paggamit ay maaaring isang napakahirap o napakalaking paraan. Tingnan ang aking critical-eye coverage sa remote na operator ng mga autonomous na sasakyan at self-driving na sasakyan sa ang link dito.

Nais kong maikling takpan ang isa pang nauugnay na paksa na tatalakayin ko nang mas malalim sa isang paparating na pagsusuri.

Isa sa mga tumataas na alalahanin tungkol sa mga autonomous na sasakyan at self-driving na mga sasakyan na semi-autonomous ay ang tinatawag na Hot Potato Syndrome.

Narito ang deal.

Isang AI driving system at isang tao ang co-driving. Isang malagim na suliranin ang lumitaw. Ang AI ay na-program upang huminto sa gawain sa pagmamaneho at ibigay ang mga bagay sa tao kapag naganap ang isang malagim na sandali. Malamang na ito ay "makatuwiran" dahil tila ginagamit natin ang panuntunan tungkol sa tao bilang default na "nagwagi" sa anumang potensyal na hindi pagkakasundo ng propesyonal.

Ngunit ang pag-drop out ng AI ay maaaring para sa mas kasuklam-suklam o itinuturing na mga mapanlinlang na layunin. Maaaring ayaw ng automaker o self-driving tech firm na ang kanilang AI ay ituring na "party at fault" kapag may naganap na pagbangga ng sasakyan. Upang tila maiwasang ma-pin down nang ganoon, biglang ibinibigay ng AI ang mga kontrol sa tao. Voila, ang tao ngayon ay malamang na ganap na responsable para sa sasakyan.

Ang kicker ay ipagpalagay na gagawin ng AI ang handoff na ito na may isang segundo pa bago mangyari ang isang pag-crash.

Magkakaroon ba talaga ang tao ng anumang magagamit na oras upang maiwasan ang pag-crash?

Malamang hindi.

Ipagpalagay na gagawin ng AI ang handoff na may ilang millisecond o nanoseconds na natitira. Naglakas-loob akong sabihin na ang tao ay walang posibilidad na gumawa ng anumang bagay upang maiwasan ang pag-crash.

Mula sa pananaw ng automaker o self-driving na kompanya ng kotse, maaari nilang subukang kumilos na parang malinis ang kanilang mga kamay kapag nangyari ang naturang pagbangga ng sasakyan. Ang sasakyan ay minamaneho ng isang tao. Hindi ang AI ang nagmamaneho ng kotse. Ang tanging "lohikal" na konklusyon ay tila ang tao ay dapat na may kasalanan at ang AI ay dapat na ganap na walang kapintasan.

Ito ay isang palayok.

Tatalakayin ko ito nang mas malalim sa paparating na kolum.

Konklusyon

Ang mga propesyonal na hindi pagkakasundo ay magaganap.

Mahirap isipin ang anumang masalimuot na gawain na may dalawang partido na magkakatuwang na gumaganap sa gawain at kung saan hindi kailanman magkakaroon ng anumang mga hindi pagkakasundo ng propesyonal na lalabas. Ito ay tila isang fantasyland o hindi bababa sa isang malaking pambihira.

Sa ngayon, marami tayong pagkakataon ng hindi pagkakasundo ng propesyonal sa tao-sa-tao, kung saan sa araw-araw ang mga resolusyon ay mapayapa at may katuturang naiisip sa isang paraan o iba pa. Sa katunayan, madalas kaming nagse-set up ng mga sitwasyon na sinasadya upang itaguyod at ilabas ang mga propesyonal na hindi pagkakasundo. Maaari kang magtaltalan na ito ay nagpapakita ng sikat na karunungan na kung minsan ang dalawang ulo ay mas mahusay kaysa sa isa.

Habang lumalaganap ang AI, magkakaroon tayo ng maraming AI-to-human o human-to-AI two-party task performers at magkakaroon ng mga propesyonal na hindi pagkakasundo magaganap yan. Ang tamad na diskarte ay palaging ipagpaliban ang tao. Maaaring hindi ito ang pinakaangkop na diskarte. AI ay maaaring ang mas mahusay na pagpipilian. O ang isa sa iba pang mga nabanggit na panuntunan ay maaaring isang mas mahusay na diskarte.

Mayroong sage line na madalas na paulit-ulit na lahat tayo ay dapat na sa pangkalahatan ay maaaring sumang-ayon na hindi sumang-ayon, kahit na pagdating sa wire, kung minsan ang isang hindi pagkakasundo ay kailangang walang alinlangan na lutasin kung hindi ang usapin sa kamay ay hahantong sa hindi masasabing kalamidad. Hindi natin basta-basta hahayaan na ang hindi pagkakasundo ay lumala sa puno. Ang oras ay maaaring mahalaga at ang buhay ay maaaring nakataya.

Mayroong malinaw na kinakailangan para sa ilang maingat na paraan upang malutas ang mga hindi pagkakasundo kahit na hindi naman kaayon, kabilang ang kapag ang AI at isang human-in-the-loop ay hindi nakikita ng mata o byte-to-byte.

Nagtitiwala ako na hindi ka sasang-ayon sa lubos na kaaya-ayang pagtatalo.

Pinagmulan: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- ang-pilot-at-co-pilot-hindi sumang-ayon-bago-pag-alis-at-biglang-nag-opt-to-taxi-balik-sa-terminal-at-pumunta-kanilang-separate-ways/