Ang Pagtatanim ng Legal na Pangangatwiran sa AI ay Matalinong Makamit ang Human-Value Alignment, Sabi ng AI Ethics At AI Law

Sa column ngayon, pagsasama-samahin ko ang napakaraming mga tila magkakaibang mga paksang nauugnay sa AI sa isang magandang pinagtagpi na tela.

Handa ka na ba?

Isipin na gumagamit ka ng isang app na pinapagana ng AI na tumutulong sa iyo habang nagsasagawa ng ilang uri ng makabuluhang gawain. Marahil ang usapin ay pinansiyal o maaaring may kinalaman sa kalusugan. Ang esensya ay umaasa ka sa AI upang gawin ang tamang bagay at gumanap sa isang ipinapalagay na ligtas at maayos na paraan.

Ipagpalagay na ang AI ay lumipat sa hindi etikal na teritoryo.

Maaaring hindi mo napagtanto na ginagawa ito ng AI.

Halimbawa, ang AI ay maaaring umaasa sa mga potensyal na nakatagong diskriminasyong mga salik gaya ng lahi o kasarian, kahit na maaaring wala kang anumang mabubuhay na paraan upang matukoy ang hindi kanais-nais na paggamit. Nandiyan ka, mag-isa, na nakukuha ang maikling dulo ng stick sa pamamagitan ng AI na maaaring ginawa mula sa get-go sa isang problemadong paraan o nagawang makaiwas sa dicey at borderline ethical endangerment (sasabihin ko pa ang tungkol sa ito sa isang sandali).

Ano ang maaari mong gawin o kung ano ang maaaring gawin tungkol sa AI na nagpasyang pumunta sa hindi etikal na landas?

Bukod sa pagsubok na paunang buuin ang AI upang hindi ito makagawa ng ganitong uri ng mapanlinlang na aksyon, dati ko ring idinetalye na mayroong tumataas na interes sa pag-embed ng isang Pagsusuri ng etika ng AI bahagi sa umuusbong na morass ng kung hindi man Wild West anything-goes AI system na inihahagis sa marketplace. Ang ideya ay upang subukan at pigilan ang isang AI-infused app mula sa pagpunta sa mga etikal na dimensyon, maaari kaming gumamit ng karagdagang AI upang gumawa ng check-and-balance. Ang idinagdag na AI na ito ay maaaring nasa labas ng naka-target na AI app o maaaring isang component na naka-embed o direktang naka-implant sa AI na gusto naming mag-double check.

Gaya ng sinabi ko dati, kita n'yo ang link dito: "Ang isang kamakailang umuusbong na trend ay binubuo ng pagsisikap na bumuo ng mga etikal na guardrail sa AI na mahuhuli habang ang natitirang bahagi ng isang AI system ay nagsisimulang lumampas sa mga preset na etikal na hangganan. Sa isang kahulugan, ang layunin ay gamitin ang AI mismo upang maiwasan ang sarili nitong maging mali sa etika. Maaari mong sabihin na kami ay naglalayon na pagalingin mismo ng AI" (Lance Eliot, "Paggawa ng Etikang AI na Sinusubaybayan ang Hindi Etikal na AI At Sinusubukang Pigilan ang Masamang AI Mula sa Pagkilos", Forbes, Marso 28, 2022).

Maaari ka ring makakita ng may kaugnayang interes sa aking aklat AI guardian bots, kung minsan ay tinutukoy bilang mga anghel na tagapag-alaga, na sumasaklaw sa mga teknikal na batayan ng makabagong AI-within-AI na naka-embed na double-checker na ito, tingnan ang link dito.

Bottom-line ay ang iyong bacon ay salamat na maaaring mai-save sa pamamagitan ng paggamit ng isang naka-embed na AI double-checking ethics-gauging element na ginawa at itinanim sa isang AI app na iyong ginagamit. Ngunit sapat na ba iyon ng isang tagapag-alaga upang talagang matiyak na ang AI ay hindi ganap na magpapatigas sa iyo at makipagsapalaran sa kahit na hasher na mapaminsalang lupa?

Kita mo, ang AI app ay maaaring gumanap kunwari ilegal kumikilos.

Isang bagay ang pagkakaroon ng AI na napupunta sa isang kulay-abo na bahagi ng kung ano ang itinuturing naming etikal o hindi etikal na pag-uugali. Ang parehong nakaliligaw na pag-uugali at malamang na lumalalang alalahanin ay nangangailangan ng AI na lumulukso lang sa pating at bumababa sa karumal-dumal na kadiliman ng mga tahasang labag sa batas.

Ang labag sa batas na AI ay masama. Ang pagpayag sa labag sa batas na AI na hindi mabantayan ay masama. Ang ilang mga legal na iskolar ay hayagang nababahala na ang pagdating at paglaganap ng AI ay unti-unti at nakakatakot na magpapababa sa ating pagkakahawig sa alituntunin ng batas, tingnan ang aking pagsusuri sa ang link dito.

Sandali, baka sinasabi mo.

Maaari kang matukso na isipin na gagawin ng mga developer ng AI hindi kailanman i-program ang kanilang AI na labag sa batas. Hindi maisip. Ang mga masasamang kontrabida lamang ang gagawa nito (na, sa pamamagitan ng paraan, tandaan na may mga sadyang gumagawa at gumagamit ng AI para sa masasamang layunin, isang lumalagong lugar ng interes sa mga kriminal at iba pang nagnanais na gumamit ng AI para sa mga masasamang aktibidad).

Paumanhin, ngunit ito ay nagnanais na isipin na ang lahat ng hindi masasamang AI developer ay mahigpit na sisiguraduhin na ang kanilang AI ay ganap na sumusunod sa batas. Maaaring ang AI ay nag-aayos sa sarili at gumagala sa ilegal na aktibidad. Siyempre, mayroon ding potensyal na gusto ng mga developer ng AI na kumilos nang ilegal ang AI o hindi nila alam kung ano ang iligal laban sa mga legal na aksyon noong ginagawa nila ang AI (oo, posible ito, ibig sabihin, ang heads-down all-tech na AI team ay maaaring maging ignorante sa mga legal na kalokohan ng kanilang AI, na hindi madadahilan at nangyayari pa rin nang may alarma na dalas).

Ano ang magagawa tungkol dito?

Muli, bukod sa pagsisikap na matiyak na ang AI out-the-gate ay matatag at naaayon sa batas, ang isang karagdagang diskarte sa pagkakaroon ng singaw ay kinabibilangan ng pag-embed o pagtatanim ng isang bahagi ng AI na nagsasagawa ng legal na double-checking para sa natitirang bahagi ng AI app. Tahimik at madalas na hindi binabanggit, ang idinagdag na AI na ito ay nagmamasid sa iba pang bahagi ng AI upang subukan at malaman kung ang AI ay magiging rogue o hindi bababa sa lalampas sa mga limitasyon ng legal o regulasyong ipinataw na mga paghihigpit.

Mayroon na tayong dalawang uri ng AI double-checking na posibleng naka-embed sa isang AI app:

  • AI Ethics double-checker: Sa real-time, sinusuri ng component na ito o AI add-in ang natitirang bahagi ng AI para sa etikal at hindi etikal na pag-uugali na ipinapakita ng AI
  • AI Legal na double-checker: Sa real-time, sinusuri ng component na ito o AI add-in ang natitirang bahagi ng AI para sa katiyakan ng pananatili sa loob ng mga legal na keystone at para sa paghuli ng mga umuusbong na ilegal na aktibidad ng AI

Upang linawin, ang mga iyon ay medyo bagong mga konsepto at dahil dito ang AI na ginagamit mo ngayon ay maaaring nasa alinman sa mga kasalukuyang kundisyon na ito:

  • AI na walang kasamang double-checker
  • AI na may kasamang AI Ethics double-checker ngunit walang ibang double-checker
  • AI na may kasamang AI Legal na double-checker ngunit walang ibang double-checker
  • AI na may parehong AI Ethics double-checker at AI Legal double-checker
  • iba

Mayroong ilang kapansin-pansing nakakalito na aspeto ng pagkakaroon ng AI Ethics double-checker at AI Legal double-checker na gumagana nang magkatabi sa isang AI app bilang magkapatid na kapatid. Ito ay isang uri ng dualism na maaaring mas mahirap i-coordinate kaysa sa inaakala mo (sa palagay ko, alam nating lahat na ang mga kapatid ay maaaring magkaroon ng pinakamahigpit na ugnayan, bagaman maaari din silang lumaban tulad ng mga dickens paminsan-minsan at masiglang sumasalungat. view).

Tinalakay ko nang mahaba ang ganitong uri ng mahirap dualism: “Ang isang napabayaang dualismo ay nagaganap sa AI para sa Kabutihang Panlipunan na kinasasangkutan ng kakulangan ng pagsali sa parehong papel ng artipisyal na moral na ahensya at artipisyal na legal na pangangatwiran sa mga advanced na sistema ng AI. Ang mga pagsisikap ng mga mananaliksik ng AI at mga developer ng AI ay may posibilidad na tumuon sa kung paano gumawa at mag-embed ng mga artipisyal na moral na ahente upang gabayan ang moral na pagdedesisyon kapag ang isang AI system ay tumatakbo sa larangan ngunit hindi rin nakatutok at pinagsama ang paggamit ng mga artipisyal na legal na kakayahan sa pangangatwiran , na pantay na kinakailangan para sa matatag na moral at legal na mga resulta" (Lance Eliot, "The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good," Harvard University CRCS Annual Conference 2020, Harvard Center para sa Research and Computation Society)

Kung gusto mong malaman kung bakit maaaring magkaroon ng tensyon sa pagitan ng AI Ethics double-checker at AI Legal double-checker, maaari mong makita ang kapansin-pansing quote na ito ng mind-bending conceptual worthiness: “The law can permit some particular act, kahit na ang gawaing iyon ay imoral; at maaaring ipagbawal ng batas ang isang gawa, kahit na ang pagkilos na iyon ay pinahihintulutan sa moral, o kahit na kinakailangan sa moral” (Shelly Kagan, Ang mga Limitasyon ng Moralidad, 1998).

Bahagyang ibahin natin ang ating pagtuon at tingnan kung paano nag-dovetail ang mga double-checker na ito sa isa pang lubos na sinuri na paksa ng AI, lalo na Responsableng AI o isang pinagsamang pagsasaalang-alang sa pagkakahanay ng mga halaga ng tao at AI.

Ang pangkalahatang paniwala ay gusto natin ang AI na sumusunod sa wasto at kanais-nais na mga halaga ng tao. Tinutukoy ito ng ilan bilang Responsableng AI. Ganun din ang pinag-uusapan ng iba Pananagutan AI, Mapagkakatiwalaang AI, at AI Alignment, na lahat ay nakaugnay sa parehong prinsipyong batong panulok. Para sa aking talakayan sa mga mahahalagang isyung ito, tingnan ang link dito at ang link dito, Lamang upang pangalanan ang ilang.

Paano natin maiayon ang AI sa mga halaga ng tao?

Gaya ng naunang iminungkahi, umaasa kami na ang mga developer ng AI ay magiging maalam sa pagbuo ng AI na nakakakuha ng Responsableng pagsunod sa AI. Sa kasamaang-palad, maaaring hindi nila, ayon sa mga dahilan na naunang ipinaliwanag. Bilang karagdagan, maaari nilang subukang gawin ito, ngunit gayunpaman, ang AI ay nagtatapos sa pagsasaayos ng sarili sa kabila ng kapansin-pansing larangan ng mga etikal na pag-uugali o posibleng sa labag sa batas na tubig.

Sige, kailangan nating isaalang-alang ang aming madaling gamiting mga double-checker bilang isang paraan upang suportahan ang mga panganib at exposure na ito. Ang paggamit ng isang mahusay na ginawang AI Ethics double-checker ay maaaring makatulong sa materyal sa pag-align ng AI sa mga halaga ng tao. Katulad nito, ang paggamit ng isang mahusay na ginawang AI Legal na double-checker ay maaaring makatutulong nang malaki sa pag-align ng AI sa mga halaga ng tao.

Kaya, ang isang mahalaga at hindi pa kilalang paraan ng paghahanap na makarating sa Responsible AI, Trustworthy AI, Accountable AI, AI Alignment, atbp., ay kasangkot sa paggamit ng AI double-checkers tulad ng AI Ethics double-checker at isang AI Legal na double-checker na walang sawang gagana bilang isang double check sa AI kung saan naka-embed ang mga ito sa loob.

Sa talakayang ito dito, gusto kong pumunta sa kaunti pang detalye tungkol sa kalikasan at mga construct ng AI Legal double-checker na maaaring i-embed sa AI. Upang gawin ito, maaaring makatulong na ibahagi sa iyo ang ilang karagdagang background sa pangkalahatang paksa ng AI at Batas.

Para sa isang walang katuturang pagsusuri kung paano naghahalo ang AI at ang batas sa isa't isa, tingnan ang aking talakayan sa ang link dito. Sa aking matalas na pagtingin sa AI at Batas coupling, ibinibigay ko itong tuwirang konsepto ng dalawang pangunahing paraan upang maiugnay ang AI at ang batas:

  • (1) Inilapat ng batas-sa-AI: Ang pagbabalangkas, pagsasabatas, at pagpapatupad ng mga batas na inilalapat sa pagsasaayos o pamamahala ng Artipisyal na Katalinuhan sa ating lipunan
  • (2) AI-apply-to-Law: Ang teknolohiya ng Artipisyal na Intelligence ay ginawa at inilapat sa batas kabilang ang AI-based Legal Reasoning (AILR) na inilagay sa LegalTech high-tech na apps upang magsasarili o semi-autonomously magsagawa ng mga gawain sa pag-abogado

Ang unang nakalistang pananaw ay binubuo ng pagsasaalang-alang kung paano pamamahalaan ng mga umiiral at bagong batas ang AI. Ang pangalawang nakalistang pananaw ay may kinalaman sa paglalapat ng AI sa batas.

Ang huling kategoryang ito ay karaniwang nagsasangkot ng paggamit ng AI-based na Legal Reasoning (AILR) sa iba't ibang online na tool na ginagamit ng mga abogado. Halimbawa, ang AI ay maaaring bahagi ng isang Contract Life Cycle Management (CLM) package na tumutulong sa mga abogado sa pamamagitan ng pagtukoy sa kontraktwal na wika na magiging kapaki-pakinabang para sa pag-draft ng mga bagong kontrata o maaaring makakita ng mga kontrata na may legal na wish-washy na wika na nagbibigay-daan para sa mga sakuna o legal na butas. (para sa aking pagtingin sa tinatawag na "mga amoy ng batas" na maaaring makilala ng AI, tingnan ang link dito).

Hindi maiiwasang mailapat natin ang AI sa batas na magagamit para sa pangkalahatang publiko at hindi nangangailangan ng abogado na nasa loop. Sa ngayon, bilang resulta ng iba't ibang mga paghihigpit, kabilang ang UPL (Unauthorized Practical of Law), ang paggawa ng available na AI-based legal advising app ay isang mahirap at kontrobersyal na usapin, tingnan ang aking talakayan sa ang link dito.

Inilabas ko ang pagpapakilalang ito tungkol sa AI at Batas upang ituro na ang isa pang instrumental na paggamit ng AI na inilapat sa batas ay ang paglikha ng AI Legal na mga double-checker.

Oo, ang parehong uri ng teknolohikal na kahusayan na kasangkot sa paglalapat ng AI sa batas ay nagsisilbing dobleng tungkulin sa pamamagitan ng paggamit ng AI para sa pagsisilbi bilang naka-embed o nakatanim na AI Legal double-checker. Ang AI Legal double-checker ay isang bahagi na kailangang sanay sa mga legal na aspeto. Kapag ang iba pang bahagi ng AI app ay nagsasagawa ng iba't ibang mga aksyon, ang AI Legal na double-checker ay sinusukat kung ang AI app ay gumagawa nito nang legal at sa loob ng mga limitasyon ng batas.

Ang bahagi ng AI Legal na double-checker ay hindi kinakailangang saklawin ang buong gamut ng lahat ng dapat malaman tungkol sa batas. Depende sa likas na katangian ng AI app tungkol sa layunin at mga aksyon ng AI sa pangkalahatan, ang AI Legal double-checker ay maaaring maging mas makitid sa mga tuntunin ng legal na kadalubhasaan na nilalaman nito.

Natukoy ko ang isang kapaki-pakinabang na framework para sa pagpapakita kung paano sumasaklaw ang AI sa legal na domain sa isang serye ng mga autonomous na kapasidad, na kilala bilang Levels of Autonomy (LoA). Para sa isang pangkalahatang-ideya tingnan ang aking Forbes column posting ng Nobyembre 21, 2022, “The No-Nonsense Comprehensive Compelling Case Para sa Bakit Kailangang Malaman ng Mga Abogado Tungkol sa AI At Ang Batas” sa ang link dito, at para sa isang detalyadong teknikal na paglalarawan tingnan ang aking malalim na artikulo sa pananaliksik sa MIT Computational Law Journal ng Disyembre 7, 2021, tingnan ang link dito.

Ang balangkas ay nagpapaliwanag ng limang antas ng AI gaya ng ginamit sa mga legal na pagsisikap:

  • Level 0: Walang automation para sa legal na gawaing nakabatay sa AI
  • Level 1: Simpleng automation ng tulong para sa legal na gawaing nakabatay sa AI
  • Level 2: Advanced na automation ng tulong para sa legal na gawaing nakabatay sa AI
  • Level 3: Semi-autonomous na automation para sa legal na gawaing nakabase sa AI
  • Level 4: Autonomous ang domain para sa legal na gawaing nakabatay sa AI
  • Level 5: Ganap na nagsasarili para sa legal na gawaing nakabatay sa AI

Ilalarawan ko sila nang maikli dito.

Ang Antas 0 ay itinuturing na walang antas ng automation. Ang mga legal na pangangatwiran at mga legal na gawain ay isinasagawa sa pamamagitan ng mga manu-manong pamamaraan at pangunahing nangyayari sa pamamagitan ng mga pamamaraang nakabatay sa papel.

Ang Level 1 ay binubuo ng simpleng automation ng tulong para sa legal na pangangatwiran ng AI. Kabilang sa mga halimbawa ng kategoryang ito ang paggamit ng pang-araw-araw na computer-based na pagpoproseso ng salita, ang paggamit ng pang-araw-araw na computer-based na mga spreadsheet, pag-access sa mga online na legal na dokumento na iniimbak at kinukuha sa elektronikong paraan, at iba pa.

Ang Level 2 ay binubuo ng advanced na automation ng tulong para sa AI legal na pangangatwiran. Kasama sa mga halimbawa ng kategoryang ito ang paggamit ng pang-query-style na panimulang Natural Language Processing (NLP), mga simpleng elemento ng Machine Learning (ML), mga tool sa pagsusuri sa istatistika para sa mga hula sa legal na kaso, atbp.

Ang Level 3 ay binubuo ng semi-autonomous automation para sa AI legal na pangangatwiran. Kabilang sa mga halimbawa ng kategoryang ito ang paggamit ng mga advanced na Knowledge-Based System (KBS) para sa legal na pangangatwiran, ang paggamit ng Machine Learning at Deep Learning (ML/DL) para sa legal na pangangatwiran, advanced na NLP, at iba pa.

Ang Level 4 ay binubuo ng domain autonomous computer-based system para sa AI legal na pangangatwiran. Ang antas na ito ay muling gumagamit ng konseptwal na ideya ng Operational Design Domains (ODDs), bilang ginagamit para sa mga self-driving na kotse, ngunit bilang inilapat sa legal na domain. Maaaring uriin ang mga legal na domain ayon sa mga functional na bahagi, gaya ng batas ng pamilya, batas sa real estate, batas sa pagkabangkarote, batas sa kapaligiran, batas sa buwis, atbp.

Ang Level 5 ay binubuo ng ganap na autonomous na mga computer-based na system para sa AI legal na pangangatwiran. Sa isang kahulugan, ang Level 5 ay ang superset ng Level 4 sa mga tuntunin ng pagsaklaw sa lahat ng posibleng legal na domain. Mangyaring mapagtanto na ito ay isang napakataas na pagkakasunud-sunod.

Maaari mong isipin ang mga Antas ng Autonomy na ito na katulad ng mga katulad na gamit kapag tinatalakay ang mga self-driving na sasakyan at mga autonomous na sasakyan (batay din sa opisyal na pamantayan ng SAE, tingnan ang aking saklaw sa ang link dito). Wala pa kaming SAE Level 5 na self-driving na sasakyan. Papasok kami sa SAE Level 4 na self-driving na mga kotse. Karamihan sa mga nakasanayang sasakyan ay nasa SAE Level 2, habang ang ilan sa mga mas bagong sasakyan ay papasok sa SAE Level 3.

Sa legal na domain, wala pa kaming Level 5 AILR. Tinutukoy namin ang ilang Antas 4, kahit na sa napakakitid na mga ODD. Ang Level 3 ay nagsisimula nang sumikat, habang ang pangunahin ng AILR ngayon ay nasa Antas 2.

Ang isang kamakailang artikulo sa pananaliksik tungkol sa AI bilang inilapat sa batas ay naglagay ng typification na kilala bilang Batas na Nagpapabatid sa Kodigo. Sinabi ito ng mananaliksik: “Isa sa mga pangunahing layunin ng Batas na Nagpapabatid sa Kodigo agenda ay turuan ang AI na sundin ang diwa ng batas” (John J. Nay, “Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans”, Northwestern Journal of Technology at Intellectual Property, Tomo 20, paparating). Mayroong ilang mahahalagang pagsasaalang-alang na ang Batas na Nagpapabatid sa Kodigo ilalabas ang mantra at ituturo ko sa iyo ang ilan sa mga pangunahing utos na iyon.

Bago sumabak sa paksa, gusto ko munang maglatag ng ilang mahahalagang pundasyon tungkol sa AI at partikular sa AI Ethics at AI Law, na ginagawa ito upang matiyak na ang talakayan ay magiging makabuluhan ayon sa konteksto.

Ang Tumataas na Kamalayan Ng Etikal AI At Gayundin AI Law

Ang kamakailang panahon ng AI ay unang tiningnan bilang pagiging AI For Good, ibig sabihin ay magagamit natin ang AI para sa pagpapabuti ng sangkatauhan. Sa takong ng AI For Good dumating ang realisasyon na tayo rin ay nakikisawsaw AI Para sa Masama. Kabilang dito ang AI na ginawa o binago sa sarili upang maging diskriminasyon at gumagawa ng mga pagpipilian sa computational na nagdudulot ng mga hindi nararapat na bias. Minsan ang AI ay binuo sa ganoong paraan, habang sa iba pang mga pagkakataon ay lumilipat ito sa hindi kanais-nais na teritoryo.

Gusto kong tiyakin na tayo ay nasa parehong pahina tungkol sa likas na katangian ng AI ngayon.

Walang anumang AI ngayon na nakakaramdam. Wala kaming ganito. Hindi namin alam kung magiging posible ang sentient AI. Walang sinuman ang maaaring mahuhulaan kung makakamit natin ang sentient AI, o kung ang sentient AI ay kahit papaano ay miraculously kusang lalabas sa isang anyo ng computational cognitive supernova (karaniwang tinutukoy bilang ang singularity, tingnan ang aking coverage sa ang link dito).

Ang uri ng AI na pinagtutuunan ko ng pansin ay binubuo ng non-sentient AI na mayroon tayo ngayon. Kung gusto nating mag-isip-isip tungkol sa nararamdamang AI, ang talakayang ito ay maaaring mapunta sa ibang direksyon. Ang isang pakiramdam na AI ay dapat na may kalidad ng tao. Kailangan mong isaalang-alang na ang sentient AI ay ang cognitive equivalent ng isang tao. Higit pa rito, dahil ang ilan ay nag-iisip na maaari tayong magkaroon ng super-intelligent na AI, maiisip na ang naturang AI ay maaaring maging mas matalino kaysa sa mga tao (para sa aking paggalugad ng super-intelligent na AI bilang isang posibilidad, tingnan ang ang coverage dito).

Lubos kong iminumungkahi na itago natin ang mga bagay-bagay at isaalang-alang ang computational non-sentient AI ngayon.

Napagtanto na ang AI ngayon ay hindi nagagawang "mag-isip" sa anumang paraan na katumbas ng pag-iisip ng tao. Kapag nakipag-ugnayan ka kay Alexa o Siri, ang mga kakayahan sa pakikipag-usap ay maaaring mukhang katulad ng mga kapasidad ng tao, ngunit ang katotohanan ay ito ay computational at walang katalinuhan ng tao. Ang pinakabagong panahon ng AI ay gumawa ng malawakang paggamit ng Machine Learning (ML) at Deep Learning (DL), na gumagamit ng computational pattern matching. Ito ay humantong sa mga AI system na may hitsura ng mga proclivities na tulad ng tao. Samantala, walang anumang AI ngayon na may kamukha ng sentido komun at wala ring anumang nakakaisip na pagtataka ng matatag na pag-iisip ng tao.

Maging maingat sa pag-antropomorphize ng AI ngayon.

Ang ML/DL ay isang anyo ng computational pattern matching. Ang karaniwang diskarte ay ang mag-ipon ka ng data tungkol sa isang gawain sa paggawa ng desisyon. Ipapakain mo ang data sa mga modelo ng ML/DL computer. Ang mga modelong iyon ay naghahangad na makahanap ng mga pattern ng matematika. Matapos mahanap ang gayong mga pattern, kung ito ay natagpuan, gagamitin ng AI system ang mga pattern na iyon kapag nakatagpo ng bagong data. Sa pagtatanghal ng bagong data, ang mga pattern na batay sa "luma" o makasaysayang data ay inilapat upang mag-render ng kasalukuyang desisyon.

Sa tingin ko maaari mong hulaan kung saan ito patungo. Kung ang mga tao na gumagawa ng pattern sa mga desisyon ay nagsasama ng mga hindi kanais-nais na pagkiling, malamang na ang data ay nagpapakita nito sa banayad ngunit makabuluhang mga paraan. Ang Machine Learning o Deep Learning computational pattern matching ay susubukan lang na mathematically gayahin ang data nang naaayon. Walang pagkakahawig ng sentido komun o iba pang nakikitang aspeto ng AI-crafted modeling per se.

Higit pa rito, maaaring hindi napagtanto ng mga developer ng AI kung ano ang nangyayari. Ang arcane mathematics sa ML/DL ay maaaring magpahirap sa pag-iwas sa mga nakatagong bias na ngayon. Marapat mong asahan at asahan na ang mga developer ng AI ay susubok para sa mga potensyal na nakabaon na bias, kahit na ito ay mas nakakalito kaysa sa tila. Mayroong matatag na pagkakataon na kahit na may medyo malawak na pagsubok na magkakaroon pa rin ng mga bias na naka-embed sa loob ng pattern-matching na mga modelo ng ML/DL.

Medyo maaari mong gamitin ang sikat o kasumpa-sumpa na kasabihan ng garbage-in garbage-out. Ang bagay ay, ito ay mas katulad sa mga biases-in na insidiously makakuha infused bilang biases lumubog sa loob ng AI. Ang algorithm na paggawa ng desisyon (ADM) ng AI ay axiomatically nagiging puno ng hindi pagkakapantay-pantay.

Hindi maganda.

Ang lahat ng ito ay may kapansin-pansing makabuluhang mga implikasyon sa AI Ethics at nag-aalok ng isang madaling gamitin na window sa mga natutunang aral (kahit na bago mangyari ang lahat ng mga aralin) pagdating sa pagsubok na isabatas ang AI.

Bukod sa paggamit ng mga alituntunin sa AI Ethics sa pangkalahatan, may katumbas na tanong kung dapat ba tayong magkaroon ng mga batas upang pamahalaan ang iba't ibang paggamit ng AI. Ang mga bagong batas ay inilalagay sa paligid sa pederal, estado, at lokal na antas na may kinalaman sa hanay at kalikasan ng kung paano dapat gawin ang AI. Ang pagsisikap na bumalangkas at magpatibay ng mga naturang batas ay unti-unti. Ang AI Ethics ay nagsisilbing isang itinuturing na stopgap, sa pinakamababa, at halos tiyak na sa ilang antas ay direktang isasama sa mga bagong batas na iyon.

Magkaroon ng kamalayan na ang ilan ay matatag na nangangatuwiran na hindi namin kailangan ng mga bagong batas na sumasaklaw sa AI at na ang aming mga kasalukuyang batas ay sapat. Nagbabala sila na kung gagawin natin ang ilan sa mga batas na ito ng AI, papatayin natin ang ginintuang gansa sa pamamagitan ng pagpigil sa mga pagsulong sa AI na nagbibigay ng napakalaking pakinabang sa lipunan.

Sa mga naunang column, sinaklaw ko ang iba't ibang pambansa at internasyonal na pagsisikap na gumawa at magpatupad ng mga batas na kumokontrol sa AI, tingnan ang link dito, Halimbawa. Sinaklaw ko rin ang iba't ibang mga prinsipyo at alituntunin sa AI Ethics na natukoy at pinagtibay ng iba't ibang bansa, kasama na halimbawa ang pagsisikap ng United Nations tulad ng UNESCO set ng AI Ethics na pinagtibay ng halos 200 bansa, tingnan ang link dito.

Narito ang isang kapaki-pakinabang na listahan ng keystone ng pamantayan o mga katangian ng Ethical AI patungkol sa mga AI system na dati kong na-explore nang mabuti:

  • Aninaw
  • Katarungan at Pagkamakatarungan
  • Non-Maleficence
  • Pananagutan
  • Privacy
  • Pagkabenta
  • Kalayaan at Autonomy
  • Pagkatiwalaan
  • Pagpapanatili
  • Dignidad
  • Pagkakaisa

Ang mga alituntuning iyon sa AI Ethics ay taimtim na dapat na ginagamit ng mga developer ng AI, kasama ang mga namamahala sa mga pagsusumikap sa pagpapaunlad ng AI, at maging ang mga sa huli ay naglalagay at nagsasagawa ng pagpapanatili sa mga AI system.

Ang lahat ng stakeholder sa buong AI life cycle ng pag-unlad at paggamit ay isinasaalang-alang sa loob ng saklaw ng pagsunod sa mga itinatag na pamantayan ng Ethical AI. Ito ay isang mahalagang highlight dahil ang karaniwang pag-aakala ay ang "mga coder lamang" o ang mga nagprograma sa AI ay napapailalim sa pagsunod sa mga paniwala sa AI Ethics. Gaya ng naunang idiniin dito, kailangan ng isang nayon upang bumuo at maglagay ng AI, at kung saan ang buong nayon ay kailangang sanay at sumunod sa mga alituntunin ng AI Ethics.

Sinuri ko rin kamakailan ang AI Bill of Rights na opisyal na pamagat ng opisyal na dokumento ng gobyerno ng US na pinamagatang "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" na resulta ng isang taon na pagsisikap ng Office of Science and Technology Policy (OSTP). ). Ang OSTP ay isang pederal na entity na nagsisilbing payuhan ang Pangulo ng Amerika at ang Tanggapan ng Ehekutibo ng US sa iba't ibang aspetong teknolohikal, siyentipiko, at inhinyero na may pambansang kahalagahan. Sa ganoong kahulugan, maaari mong sabihin na ang AI Bill of Rights na ito ay isang dokumentong inaprubahan at inendorso ng kasalukuyang US White House.

Sa AI Bill of Rights, mayroong limang pangunahing kategorya:

  • Ligtas at epektibong mga sistema
  • Mga proteksyon sa diskriminasyon sa algorithm
  • Pagkalihim ng datos
  • Paunawa at paliwanag
  • Mga alternatibo, pagsasaalang-alang, at pagbabalik ng tao

Maingat kong sinuri ang mga tuntuning iyon, kita n'yo ang link dito.

Ngayong nakapaglatag na ako ng kapaki-pakinabang na pundasyon sa mga kaugnay na paksang ito sa AI Ethics at AI Law, handa na kaming tumalon sa nakakatakot na paksa ng AI Legal double-checkers at ang larangan ng Batas na Nagpapabatid sa Kodigo.

AI Legal Double-Checkers Naka-embed sa AI Para sa Human-Value Alignment

minsan tinutukoy ko Mga Legal na Double-Checker ng AI sa pamamagitan ng acronym ng AI-LDC. Ito ay medyo nakakainis para sa mga hindi pamilyar sa acronym. Dahil dito, hindi ko gagamitin ang partikular na acronym na ito sa talakayang ito ngunit nais kong banggitin ito sa iyo bilang pamumuno.

Upang i-unpack ang ilan sa mga kumplikado ng AI Legal double-checker, tugunan natin ang mga pangunahing puntong ito:

  • Paggamit ng AI Legal na mga double-checker bilang mekanismo ng AI human-values ​​alignment
  • Ang mas malawak na AI ay naaayon na mangangailangan ng mas matatag na AI Legal na mga double-checker
  • Ang AI Legal double-checkers ay nagpapatupad ng batas at kapansin-pansing hindi gumagawa ng batas (siguro)
  • Maselang balanse sa pagitan ng AI Legal na embodiment ng batas bilang mga panuntunan laban sa mga pamantayan
  • Nangangailangan ng patunay ng puding pagdating sa AI na sumusunod sa batas

Dahil sa mga hadlang sa espasyo, sasakupin ko na lang ang limang puntong iyon sa ngayon, bagama't mangyaring maging maingat para sa karagdagang saklaw sa aking column na sumasaklaw sa mga karagdagang at pantay na kapansin-pansing mga pagsasaalang-alang sa mga bagay na ito na mabilis na umuunlad at sumusulong.

Sa ngayon, isama ang iyong seatbelt at maghanda para sa isang nakapagpapalakas na paglalakbay.

  • Paggamit ng AI Legal na mga double-checker bilang mekanismo ng AI human-values ​​alignment

Mayroong maraming mga paraan upang subukan at makamit ang isang maayos na pagkakahanay sa pagitan ng AI at mga halaga ng tao.

Gaya ng naunang nabanggit, maaari tayong gumawa at magpahayag ng mga alituntunin sa AI Ethics at maghangad na makuha ang mga developer ng AI at yaong mga nagpapatakbo at nagpapatakbo ng AI upang sumunod sa mga pangunahing batong iyon. Sa kasamaang palad, ito lamang ay hindi gagawin ang lansihin. Mayroon kang ilang tagalikha na tiyak na hindi makakakuha ng mensahe. Mayroon kang ilang mga contriver na ipagmamalaki ang Ethical AI at susubukang iwasan ang medyo maluwag-goosey na iniresetang mga prinsipyo. At iba pa.

Ang paggamit ng "malambot na batas" na mga diskarte na sumasama sa AI Ethics ay dapat na halos hindi maiiwasang ipares sa "hard law" na mga paraan tulad ng pagpasa ng mga batas at regulasyon na magpapadala ng isang mabigat na signal sa lahat ng gumagawa o gumagamit ng AI. Ang mahabang braso ng batas ay maaaring dumating upang makuha ka kung hindi mo maingat na ginagamit ang AI. Ang tunog ng mga pintuan ng kulungan ay nakakakuha ng matalim na atensyon.

Ang isang malaking problema bagaman ay kung minsan ang pintuan ng kamalig ay pinalabas na ang mga kabayo. Ang isang AI na naka-field ay posibleng gagawa ng lahat ng uri ng ilegal na pagkilos at patuloy na gagawin ito hanggang sa hindi lamang mahuli, kundi pati na rin kapag ang ilang pagpapatupad sa wakas ay humakbang upang pigilan ang daloy ng mga labag sa batas na aksyon. Ang lahat ng iyon ay maaaring tumagal ng oras. Samantala, ang mga tao ay sinasaktan sa isang paraan o iba pa.

Sa pandarambong na ito ay dumating ang AI Legal double-checker.

Sa pamamagitan ng paninirahan sa loob ng isang AI app, ang AI Legal double-checker ay nagagawang agad na matukoy kapag ang AI ay lumalabas na lumalabag sa batas. Maaaring ihinto ng AI Legal na double-checker ang AI sa mga track nito. O ang bahagi ay maaaring alertuhan ang mga tao tungkol sa mga nakikitang labag sa batas na mga aktibidad, na ginagawa ito sa isang napapanahong batayan na maaaring mag-udyok sa mga tagapangasiwa sa agarang pagkilos sa pagwawasto. Mayroon ding itinuturing na pormal na pag-log na maaaring gawin ng bahagi, na nagbibigay ng isang nakikitang pagkakahawig ng isang audit trail para sa mga layunin ng pag-codify ng mga masamang aksyon ng AI.

Ang ating mga batas ay sinasabing isang anyo ng multi-agent conglomeration na ang mga batas ay tiyak na pinaghalong kung ano ang hinahangad ng lipunan na gawing balanse sa mga malamang na magkasalungat na pananaw sa tama at hindi wastong pag-uugali ng lipunan. Ang isang AI Legal na double-checker batay sa aming mga batas ay samakatuwid ay naglalaman ng pinaghalong iyon.

Kapansin-pansin, ito ay higit pa sa pagprograma ng isang listahan ng mga tiyak na legal na tuntunin. Ang mga batas ay may posibilidad na maging mas malambot at nagsusumikap patungo sa mga pangkalahatang pamantayan, sa halip na tukuyin ang pinakamaraming minuto ng mga mikroskopikong panuntunan. Ang mga kumplikado ay marami.

Pagbabalik sa naunang nabanggit na papel sa pananaliksik, narito kung paano matingnan ang mga pagsasaalang-alang na ito tungkol sa pagtugis ng AI Alignment: “Ang batas, ang inilapat na pilosopiya ng multi-agent alignment, ay natatanging tumutupad sa mga pamantayang ito. Problema ang alignment dahil hindi natin kaya ex Ante tukuyin ang mga panuntunan na ganap at mapapatunayang nagdidirekta ng mabuting pag-uugali ng AI. Katulad nito, ang mga partido sa isang legal na kontrata ay hindi maaaring mahulaan ang bawat posibleng mangyari ng kanilang relasyon, at ang mga mambabatas ay hindi mahuhulaan ang mga partikular na pangyayari kung saan ilalapat ang kanilang mga batas. Kaya naman ang karamihan sa batas ay konstelasyon ng mga pamantayan” (ibid).

Ang paglalagay ng batas sa isang AI Legal na double-checker ay mas mahirap kaysa sa una mong inaakala.

Habang umuunlad ang AI, kakailanganin nating gamitin ang mga naturang pagsulong nang naaayon. Lumalabas na kung ano ang mabuti para sa gansa ay mabuti rin para sa gander. Ang mga gumagawa sa atin ng pag-unlad sa AI ayon sa inilapat sa batas ay itinutulak ang sobre sa AI at walang alinlangan na gumagawa ng mga bagong pag-unlad na sa huli ay makakapagpatuloy sa pag-unlad ng AI nang buo.

  • Ang mas malawak na AI ay naaayon na mangangailangan ng mas matatag na AI Legal na mga double-checker

Isang pusa-at-mouse na sugal ang humaharap sa paksang ito.

Ang mga pagkakataon ay na habang ang AI ay lalong sumusulong, ang anumang AI Legal na double-checker na bahagi ay makakahanap ng mga bagay na mas mahirap at mas mahirap harapin. Halimbawa, ang isang AI app na sinusuri ay maaaring may mga bagong likhang super-sneaky na paraan para itago ang mga ilegal na aksyon na ginagawa ng AI. Kahit na ang AI ay hindi kumukuha ng isang underhanded na ruta, ang pangkalahatang pagiging kumplikado ng AI ay maaaring maging isang nakakatakot na hadlang para sa paghahanap na magkaroon ng AI Legal double-checker na masuri.

Narito kung paano ito nagiging lalong makabuluhan.

Ipagpalagay na ang isang developer ng AI o ilang kumpanyang gumagamit ng AI ay nagpahayag na mayroong AI Legal double-checker na naka-embed sa AI-based na app. Voila, tila naghugas na sila ngayon ng kanilang mga kamay sa anumang karagdagang mga alalahanin. Ang AI Legal double-checker na ang bahala sa lahat.

Hindi naman.

Maaaring hindi sapat ang AI Legal double-checker para sa likas na katangian ng AI app na kasangkot. Mayroon ding posibilidad na maging luma na ang AI Legal double-checker, marahil ay hindi na-update sa mga pinakabagong batas na nauukol sa AI app. Maraming mga dahilan ang maaaring mahulaan kung bakit ang pagkakaroon lamang ng AI Legal na double-checker ay hindi magiging isang pilak na bala.

Isaalang-alang ang mga insight na ito ng naunang binanggit na pananaliksik: “Habang sumusulong ang makabagong AI, maaari tayong magtakda ng mas mataas na antas ng mga naipakitang kakayahan sa legal na pag-unawa. Kung ang isang developer ay nag-claim na ang kanilang system ay may mga advanced na kakayahan sa mga gawain, dapat silang magpakita ng katumbas na advanced na legal na pag-unawa at legal, pangangatwiran na mga kakayahan ng AI, na halos walang limitasyon sa kahirapan kapag isinasaalang-alang ang morass ng mga batas at regulasyon sa buong panahon, precedent, at hurisdiksyon ” (ibid).

  • Ang AI Legal double-checkers ay nagpapatupad ng batas at kapansin-pansing hindi gumagawa ng batas (siguro)

Sigurado ako na ang ilan sa inyo ay nabigla sa ideya ng pagkakaroon ng mga AI Legal na double-checker na ito.

Ang isang madalas na binabanggit na alalahanin ay malamang na papayagan namin ang AI na magpasya sa aming mga batas para sa amin. Good gosh, baka iniisip mo, ilang piraso ng automation ang aabutan ang sangkatauhan. Ang mga naka-embed na AI Legal double-checker na iyon ay magiging mga default na hari ng ating mga batas. Anuman ang kanilang gawin ay magiging kung ano ang tila batas.

Ang mga tao ay pamamahalaan ng AI.

At ang mga AI Legal na double-checker na ito ay ang madulas na dalisdis na nagdadala sa atin doon.

Ang isang kontraargumento ay ang gayong pag-uusap ay ang mga bagay ng mga teorya ng pagsasabwatan. Ikaw ay wildly postulating at pagkuha ng iyong sarili sa isang tizzy. Ang katotohanan ay ang mga AI Legal na double-checker na ito ay hindi nakakaramdam, hindi nila sakupin ang planeta, at ang hyping tungkol sa kanilang eksistensyal na panganib ay malinaw na kakatwa at labis na labis.

Sa kabuuan, nananatili sa isang kalmado at makatuwirang postura, kailangan nating alalahanin na ang AI Legal na mga double-checker ay nagsisilbing naaangkop na sumasalamin sa batas at hindi sa pamamagitan ng disenyo at hindi rin sa hindi sinasadyang pumunta sa anumang paraan upang maging default sa iginagalang na larangan ng paggawa. batas. Isinasantabi ang mga extrapolation ng sentience, tiyak na sasang-ayon tayo na mayroong tunay at mahigpit na alalahanin na ang AI Legal double-checker ay maaaring mauwi sa maling pagkatawan sa tunay na katangian ng isang partikular na batas.

Sa kabilang banda, maaari mong i-claim na samakatuwid ang partikular na "misrepresented" na batas ay mahalagang ginagawang muli dahil hindi na ito angkop na nangangahulugang kung ano ang nilayon ng aktwal na batas. Nagtitiwala ako na tapat mong nakikita kung paano ito banayad ngunit masasabing pagsasaalang-alang. Sa anumang oras, ang AI Legal double-checker ay maaaring sa virtual na batayan sa pamamagitan ng paggawa o sasabihin nating "mag-hallucinate" ng mga bagong batas sa pamamagitan lamang ng kung paano binibigyang-kahulugan ng bahagi ng AI ang batas bilang orihinal na nakasaad o nakapaloob sa AI (para sa aking saklaw ng AI na tinatawag na guni-guni, Tingnan ang ang link dito).

Ang pag-aalaga dito ay dapat na mahigpit na isagawa.

Sa paksang ito, ang nabanggit na pag-aaral sa pananaliksik ay nag-aalok ng magkatulad na kaisipang ito sa mga tuntunin ng pagsisikap na maiwasan ang pagtawid sa sagradong linyang iyon: "Hindi namin nilalayon ang AI na magkaroon ng lehitimo na gumawa ng batas, magtakda ng legal na pamarisan, o magpatupad ng batas. Sa katunayan, masisira nito ang ating diskarte (at dapat tayong mamuhunan ng malaking pagsisikap sa pagpigil nito). Sa halip, ang pinakaambisyoso na layunin ng Law Informing Code ay ang computationally encode at i-embed ang generalizability ng mga umiiral na legal na konsepto at pamantayan sa validated AI performance” (ibid).

  • Maselang balanse sa pagitan ng AI Legal na embodiment ng batas bilang mga panuntunan laban sa mga pamantayan

Ang mga batas ay magulo.

Para sa halos anumang batas sa mga aklat, malamang na maraming interpretasyon tungkol sa kung ano ang itinakda ng batas sa aktwal na kasanayan. Sa pagsasalita ng patlang ng AI, tinutukoy namin ang mga batas bilang semantically ambiguous. Iyan ang dahilan kung bakit ang pagbuo ng AI bilang inilapat sa batas ay isang kapana-panabik at kasabay na nakakainis na hamon. Hindi tulad ng tumpak na pag-crunch ng numero na maaari mong makita para sa sabihing financial-oriented na AI application, ang pagnanais na isama ang ating mga batas sa AI ay nangangailangan ng pagharap sa tsunami ng mga semantic ambiguity.

Sa aklat ng aking pundasyon sa mga batayan ng AI Legal Reasoning (AILR), tinatalakay ko kung paano hindi kami nakuha ng mga naunang pagtatangka sa simpleng pag-codify ng mga batas sa isang hanay ng mga hangganang tuntunin hangga't gusto naming pumunta sa legal na domain (tingnan ang ang link dito). Ang AILR ngayon ay kailangang sumaklaw sa isang integrasyon sa pagitan ng paggamit ng mga panuntunan at kung ano ang maaaring tawaging mga pangkalahatang pamantayan na kinakatawan ng batas.

Ang mahalagang balanseng ito ay maaaring ipahayag sa ganitong paraan: "Sa pagsasagawa, karamihan sa mga legal na probisyon ay dumarating sa isang lugar sa isang spectrum sa pagitan ng purong tuntunin at purong pamantayan, at ang legal na teorya ay makakatulong sa pagtatantya ng tamang kumbinasyon ng "panuntunan" at "kastandard-ness" kapag tinukoy ang mga layunin ng mga sistema ng AI” (ibid).

  • Nangangailangan ng patunay ng puding pagdating sa AI na sumusunod sa batas

Ang pagnanais ng isang bagay ay iba kaysa sa pagkakaroon ng isang bagay.

Ang kaunting karunungan na iyon ay lumalabas kapag nag-aalok na kahit na gusto nating magkaroon ng AI Legal na mga double-checker, kailangan nating tiyakin na gumagana ang mga ito, at gumagana nang tama. Tandaan na ito ay nagpapakita ng isa pang matigas at nakakapagod na sagabal. Nasaklaw ko na dati ang mga pinakabagong pagsulong at hamon sa pag-verify at pagpapatunay ng AI, kita n'yo ang link dito.

Gaya ng nabanggit sa papel ng pananaliksik: “Upang matugunan ang agwat, bago i-deploy ang mga modelo ng AI sa mga lalong ahenteng kapasidad, hal., ganap na autonomous na mga sasakyan sa mga pangunahing kalsada, dapat ipakita ng nagde-deploy na partido ang pag-unawa ng system sa mga layunin, patakaran, at legal na pamantayan ng tao. Maaaring ilarawan ng isang pamamaraan sa pagpapatunay ang 'pagkaunawa' ng AI sa 'kahulugan' ng mga legal na konsepto” (ibid).

Konklusyon

Hinihimok ko kayong isaalang-alang ang pagsama sa akin sa marangal na pagsisikap na ito na bumuo at maglagay ng AI Legal double-checkers. Kailangan natin ng higit na atensyon at mga mapagkukunang nakalaan sa banal na gawaing ito.

Nagbibigay din ito ng dobleng tungkulin, gaya ng nabanggit kanina, tungo sa pagkamit ng AI Legal Reasoning (AILR) na maaaring magamit para sa pagtulong sa mga abogado at potensyal na direktang gamitin ng pangkalahatang publiko. Sa katunayan, ang ilan ay marubdob na nangangatuwiran na ang tanging mabubuhay na paraan upang makarating sa isang mas buong kahulugan ng pag-access sa hustisya (A2J) ay sa pamamagitan ng paggawa ng AI na naglalaman ng mga legal na kapasidad at maaaring ma-access ng lahat.

Isang mabilis na huling punto sa ngayon.

Ang talakayan sa ngayon ay nagbigay-diin na ang AI Legal na double-checker ay ilalagay o ilalagay sa AI. Ito talaga ang pangunahing pokus ng mga nagsasaliksik at nagsasagawa ng umuusbong na kaharian na ito.

Narito ang isang tanong na dapat pag-isipang mabuti.

Isuot mo ang iyong cap sa pag-iisip.

Bakit hindi gamitin ang AI Legal double-checkers sa lahat ng software?

Ang buod ay sa halip na eksklusibong gamitin ang AI Legal double-checkers sa AI, marahil ay dapat nating palawakin ang ating pananaw. Ang lahat ng uri ng software ay maaaring ligal na maliligaw. Tinatanggap ng AI ang malaking bahagi ng atensyon dahil sa mga paraan kung saan karaniwang ginagamit ang AI, tulad ng pag-render ng mga desisyong nakakapanghina ng loob na nakakaapekto sa mga tao sa kanilang pang-araw-araw na buhay. Maaari mong mapanatili kaagad na mayroong maraming mga non-AI system na ganoon din ang ginagawa.

Sa esensya, hindi natin dapat hayaan ang anumang software na magkaroon ng libreng biyahe upang maiwasan o maiwasan ang batas.

Alalahanin din kanina na binanggit ko ang dalawang kategorya ng pagsasama-sama ng AI at ang batas. Kami dito ay nakatuon sa paggamit ng AI bilang inilapat sa batas. Sa kabilang panig ng barya ay ang paglalapat ng batas sa AI. Ipagpalagay na nagpapatupad tayo ng mga batas na nangangailangan ng paggamit ng AI Legal double-checkers.

Ito ay maaaring sa una ay nakakulong sa mga sistema ng AI, lalo na sa mga na-rate bilang partikular na mataas ang panganib. Unti-unti, ang parehong AI Legal na double-checker na kinakailangan ay maaari ding i-extend sa non-AI software. Muli, walang libreng sakay.

Habang nakikinig ka sa pagsasaalang-alang na iyon sa itaas, pagandahin ko ang mga bagay bilang isang pangwakas na teaser. Kung susubukan naming humiling ng AI Legal na mga double-checker, maaari rin naming gawin ang tungkol sa AI Ethics double-checkers. Ang paggamit ng AI Legal double-checker ay kalahati lamang ng kuwento, at hindi rin natin maaaring pabayaan o kalimutan ang tungkol sa mga alalahanin sa AI Ethics.

Tatapusin ko ang masiglang diskursong ito sa isa sa aking mga paboritong quote. Ayon sa matalinong mga salita ni Earl Warren, ang tanyag na hurado na nagsilbing Punong Mahistrado ng Estados Unidos: “Sa sibilisadong buhay, ang batas ay lumulutang sa dagat ng etika.”

Maaaring pinakamainam na puspusang gamitin ang mga namumuko at bumubulusok na AI Legal double-checker at AI Ethics double-checker kung gusto nating panatilihin ang ating mga ulo sa itaas ng potensyal na nagbabadyang mabibigat na dagat mula sa maasim na AI at maasim na mga non-AI system na naglalagay sa panganib sa ating kaligtasan .

Maaaring sila ang life vest ng sangkatauhan.

Pinagmulan: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- and-ai-law/