Ang Pagtatalo Kung Sasagasaan ng Tesla FSD ang Isang Bata O Dummy na Bata ay Nawawala Ang Punto

A kamakailang video mula sa TeslaTSLA
-ang kritiko na si Dan O'Dowd ng “Dawn Project” ay nagpapakita ng isang test track na may kalsadang gawa sa cone. Doon, ang isang driver na gumagamit ng Tesla's FSD prototype ay nagmamaneho patungo sa isang crash-dummy ng bata at tinamaan ito. Pinagtatalunan na ang Telsa FSD ay hindi mapagkakatiwalaang nagpreno para sa mga bata. Sinasabi ng mga kritiko ng O'Dowd na ang video ay peke o hindi maganda ang pagkakagawa, at ang ilan ay gumawa ng sarili nilang mga demo, kasama ang, sa pagkabalisa ng lahat, na ginagawa ang pagsubok sa mga aktwal na live na "boluntaryo" na mga bata. Ilang isinasaalang-alang ang tanong kung ang isang prototype tulad ng Tesla FSD ay dapat na mapagkakatiwalaan na preno para sa mga bata, na kung saan ay ang tunay na kawili-wiling isyu.

Si O'Dowd ay madalas na sumulat na gusto niyang ipagbawal ang Tesla FSD. Sinakop ko ang kanyang kampanya dati, at kamakailan lamang ay tumakbo siya para sa nominasyon ng Senado ng California para lamang magpatakbo ng mga ad ng kampanyang anti-Tesla FSD. Natural na pinalaki niya ang galit ni Elon Musk at ng vocal pro-Tesla community. Dahil doon ay nagkaroon kaagad ng sparring. Ang orihinal na video na naka-link sa itaas ay hindi nagpakita ng FSD na naka-activate, kahit na ang mga susunod na release ay nagpakita na ito ay. Ang ilan ay nagmungkahi na mahirap basahin ang mga larawan sa screen ay nagsabi na ang driver ay pinipigilan ang pedal. Ang iba pang data ay nagpapakita na ang kotse ay bumagal o naglalabas ng mga babala, at ang mga argumento ay nagpabalik-balik tungkol sa kung gaano katotoo ang demonstrasyon.

ADVERTISEMENT

Ang demonstrasyon ay pinili upang maging mapanukso, dahil walang mas nakakatakot kaysa sa mga kotse na humahampas sa mga bata. 3 bata ang namamatay sa mga pagbangga ng kotse araw-araw sa USA, at bawat taon ay humigit-kumulang 170 pedestrian ang pinapatay ng mga sasakyan. Para sa marami, ang reaksyon ay walang teknolohiyang makakasagabal sa isang bata ang katanggap-tanggap. NHTHT
Nagsimula ang SA ng pagsisiyasat sa pag-deploy ng Tesla Autopilot (na isang inilabas na produkto) at sinisimulan nang tingnan ang prototype ng FSD. Ang iba, tulad ni Ralph Nader, ay tumawag din upang alisin ang prototype ng FSD sa kalsada. Matapos ang napakaliit na bilang ng mga tao na inulit ang pagsubok sa mga tunay na bata, ang NHTSA ay nagbigay ng babala na huwag gawin ito, at ang Youtube ay nakakuha ng mga video ng mga taong gumagawa nito. Naiulat na hiniling ni Tesla na alisin din ang mga video ng kanilang sasakyan na tumama sa test dummy. Ang Washington Post ay nag-uulat na nakakita ng isang Cease-and-Desist na sulat mula kay Tesla.

Ang isyung ito ay napakakumplikado, at bilang hindi masyadong kakaiba, walang sinuman ang nakakakuha nito nang eksakto. Ang FSD system, bagama't tinatawag na beta, ay mas tumpak na tinatawag na prototype. Ang mga self-driving prototype (at mga beta) ay nangangailangan ng malaking dami ng pagsubok sa kalsada sa pananaw ng karamihan sa mga developer, at ginagawa ito ng bawat team, na may mga "safety driver" na sinusubaybayan ng tao ang system at regular na nakikialam kapag nagkakamali ito upang maiwasan ang mga insidente. Ang Tesla ay hindi pangkaraniwan dahil pinapayagan nito ang mga ordinaryong customer na makisali sa pagsubok na ito, habang ang lahat ng iba pang kumpanya ay may mga empleyado, na may ilang antas ng pagsasanay ay ginagawa ang gawaing ito, at karaniwang mayroong 2 empleyado bawat sasakyan.

Ang mga prototype, ayon sa kanilang likas na katangian, ay nabigo, kasama ang mga mahahalagang bagay tulad ng paghinto para sa mga naglalakad sa kalsada. Ang bawat koponan mula sa pinakamahusay tulad ng Waymo hanggang sa pinakamasama, ay naglagay ng mga sasakyan sa kalsada na regular na gumagawa ng isang bagay na seryosong masama maliban sa interbensyon, at pakiramdam ng karamihan, kailangan at kailangan pa rin ang paggawa ng pagsubok sa mga naturang maagang yugto ng mga sasakyan upang umunlad at kalaunan ay i-deploy ang mga sasakyan. Kapag na-deploy na, ang mga sasakyan ay magiging mas mataas ang kalidad at makakapagligtas ng mga buhay — marami sa kanila — kaya gusto ng lahat na mangyari ang deployment na iyon sa lalong madaling panahon, ngunit maraming isyu na tatalakayin tungkol sa kung paano tayo makakarating sa puntong iyon at kung kailan natin naabot. ito.

ADVERTISEMENT

Driver Assist vs. Self Driving

Bilang karagdagan sa tanong kung magandang ideya ang paggamit ng Tesla ng mga customer upang subukan ang kanilang prototype, maraming isyu ang umiikot sa pagkakaiba sa pagitan ng mga driver-assist system, na kinabibilangan ng isang tao na ganap na nakikibahagi sa pagmamaneho, ngunit nangangasiwa sa system sa halip na pisikal na gumagalaw. ang mga kontrol, at mga self-driving system, kung saan hindi nangangailangan ng pangangasiwa ng tao (at sa katunayan, ang sasakyan ay maaaring tumakbo nang walang tao sa loob nito.)

Maraming mga tagaloob ng industriya ang nararamdaman na ang mga ito ay dalawang medyo magkaibang bagay, at na ito ay isang error para sa NHTSA na ideklara ang mga ito bilang dalawang magkaibang "antas" lamang ng teknolohiya ng automation. Iniisip ni Sterling Anderson, co-founder ng Aurora self-driving, na ang paglipat mula sa driver assist (o ADAS, para sa advanced na driver assist) patungo sa self-driving ay parang pagsubok na makarating sa buwan sa pamamagitan ng paggawa ng mas matataas na hagdan.

Ang unang malaking advanced na driver assist system na nagpapahintulot sa isang tao na alisin ang kanilang mga paa sa mga pedal ay cruise control, sa partikular na adaptive cruise control. Nang maglaon, dumating ang lanekeeping na nagpapahintulot sa iyo na alisin ang iyong mga kamay mula sa gulong, at sa lalong madaling panahon ang dalawa ay pinagsama sa mga produkto tulad ng Tesla "Autopilot." Bilang mga tool ng ADAS (driver assist) ang mga ito ay nilalayong gamitin nang buong atensyon.

ADVERTISEMENT

Bagama't hindi naniwala ang lahat sa una, ang pangkalahatang konklusyon ngayon ay gumagana ang mga sistemang ito, at hindi gumagawa ng panganib sa kalsada. Ang mga tao ay nagdududa sa kahit na pangunahing cruise control sa una, ngunit ito ay naging isang napaka-karaniwang tampok sa mga kotse.

Ang Tesla Autopilot ay nagbangon ng mga bagong tanong para sa iba't ibang dahilan, ngunit ang pinakakawili-wiling isyu ay umiikot sa katotohanang malinaw na mas mataas sa functionality kaysa sa mga naunang produkto, kabilang ang mas simpleng cruise control - ngunit ang superyoridad na iyon ay maaaring maging mas mapanganib, at sa gayon ay mas mababa. Ang isang kakaibang kabalintunaan ay lumitaw, kung saan mas mahusay ang sistema, mas masahol pa ang resulta, dahil ang superior system ay nag-uudyok ng "automation complacency" kung saan ang nangangasiwa na driver ay hindi gaanong binibigyang pansin ang kalsada. (Naniniwala din ang ilan na hinihikayat ng mga pangalan ng "Autopilot" at FSD ng Tesla ang kasiyahang ito, at ginagawa rin ito ng pampublikong pagmemensahe sa mga produktong ito.)

Ito ay hindi isang magandang paradox na magkaroon. Gusto naming bumuo ng mas mahuhusay na sistema, ngunit kung ang isang sistema ay lumala sa pangkalahatan habang ginagawa mo itong mas mahusay, mas mahirap makakuha ng talagang mahusay na mga sistema habang naglalakbay ka sa isang lambak ng panganib kung saan lumalala ang mga bagay bago sila bumuti. Ngayon, hindi namin kailanman sisisihin ang isang karaniwang cruise control para sa katotohanan na ito ay tatama sa isang bata o pumutok sa isang pulang ilaw — ang mga sistemang iyon ay mas simple at walang kakayahan na maiwasan ang mga pagkakamaling iyon. Ngunit gusto ng marami na sisihin ang napakahusay na sistema na humihinto para sa karamihan ng mga hadlang dahil hindi ito tumitigil nang 100% — kahit na walang sistemang magiging perpekto upang maiwasan ang 100% ng mga pagkakamali, at kahit na ang mga tao ay hindi rin magiging perpekto.

ADVERTISEMENT

Lumahok ako sa pagbalangkas ng mga unang batas sa pagsubok sa sarili sa pagmamaneho sa mundo, sa Nevada at California. Sumang-ayon ang mga manlalaro na dapat mayroong ilang pangunahing panuntunan tungkol sa kung paano magsagawa ng pagsubok sa mga kalsada (hindi ito ipinagbabawal ng mga naunang tuntunin, dahil siyempre walang sinuman ang nakaisip na gawin ito.) Kasabay nito, ginawa ng mga automaker, na nagbebenta ng mga tool ng ADAS, hindi nais na ang kanilang mga sasakyan ng ADAS ay sumailalim sa mga regulasyon sa pagsubok sa pagmamaneho sa sarili, kaya ang pagpapatakbo ng ADAS ay inukit bilang hindi saklaw ng mga regulasyong iyon.

Sa California, sa partikular, lumikha ito ng isang bukas na tanong. Lahat ng self-driving testing (na may ilang kamakailang mga exception) ay ginagawa sa isang nangangasiwa na driver ng kaligtasan. Sa ganoong paraan ito ay katulad ng pagmamaneho ng ADAS na kotse. Ang batas ay hindi malinaw sa pagkakaiba na lumikha ng ilang mga kawili-wiling sitwasyon. Si Anthony Levandowski, na lumahok din sa pagbalangkas ng mga regulasyon, ay naging pinuno ng UberUBER
ATG. Ipinahayag niya na dahil ang lahat ng kanilang mga sasakyan noong panahong iyon ay nagpapatakbo lamang sa isang driver ng kaligtasan, ito ay ADAS, at hindi kailangang sundin ng Uber ang mga regulasyon sa pagsubok sa pagmamaneho sa sarili. Sinabi ng California DMV na hindi, na sa ilalim ng lohika na ito walang sinuman ang sumusubok sa pagmamaneho sa sarili, at hindi iyon ang layunin ng batas. Sinabi nila sa Uber na kailangan nilang magparehistro bilang self-driving test vehicle, o hihilahin nila ang mga plaka ng mga Uber na sasakyan gamit ang kanilang mga espesyal na kapangyarihan. Sinunod ng Uber.

ADVERTISEMENT

Ginawa ng DMV ang diskarte na kung sinusubukan mong gumawa ng self-driving system, kahit na ito ay isang maagang hindi kumpleto na nangangailangan ng pangangasiwa at palaging pinangangasiwaan, dapat kang ituring na isang self-driving testing company na pinamamahalaan ng mga panuntunan.

Sa kabila nito, nagpapatuloy si Tesla sa parehong diskarte. Dahil tiyak na mayroong produkto ng ADAS ang Tesla, hindi sila kailanman nag-uulat ng paggawa ng anumang self-driving na pagsubok sa estado. Sa ngayon ay hinayaan ng DMV ang pag-slide na ito — maging ang pagsubok ng Tesla FSD ng mga empleyado ng Tesla na napakahirap makilala sa kung ano ang kanilang pinahinto sa Uber na gawin. Maaaring maayos ito ng DMV. Ngunit ano ang tungkol sa paggamit ng customer, kung saan ito ay opisyal na (kung binasa mo ang fine print at hindi pinansin ang pangalan) isang tool sa tulong ng driver?

Pero parang gumagana

Ang pangunahing solusyon para dito ay mga paraan upang matiyak na nananatiling mataas ang pangangasiwa ng atensyon. Mayroong iba't ibang mga diskarte para dito, kabilang ang pagsubaybay sa driver sa iba't ibang paraan at pag-uungkat sa kanila kung hindi sila nagpapansinan, o tulad ng nabanggit na may sinanay na mga propesyonal na driver o kahit isang pangkat ng mga ito na maraming mata sa kalsada. Sa loob ng maraming dekada, sinanay namin ang mga teen-age na driver sa mga paaralan sa pagmamaneho sa pamamagitan ng pagkakaroon ng isang instruktor na maaaring humawak ng gulong at may sariling preno upang ihinto ang sasakyan, at ang sistemang iyon ay gumana nang maayos.

ADVERTISEMENT

Ang malakas na konklusyon sa ngayon ay gumagana ito. Ang rekord ng kaligtasan ng mga pangunahing kumpanya sa pagmamaneho sa sarili tulad ng Waymo ay kapuri-puri. Iniulat ni Waymo ang mahigit 20 milyong milya ng pagsubok sa mga driver ng kaligtasan noong 2021, at sa panahong iyon ay marahil ay nagkaroon ng 2 aksidente sa pagkakamali. Ang mga tao, sa karaniwan, ay magkakaroon ng mas malapit sa 40 na aksidente sa panahong iyon. Kung paanong ang pagmamaneho ng mga mag-aaral na may mga nagtuturo sa pagmamaneho ay mas mahusay kaysa sa mga bagong lisensyadong driver, ang sistema ng pagsubaybay ay malinaw na gumagana, at ang mga sasakyang ito ay talagang lumilikha ng mas kaunting panganib sa publiko kaysa sa katulad na pagmamaneho ng mga ordinaryong tao.

Sa USA man lang, kung walang nasaktan — o hindi bababa sa kung ang antas ng panganib ay mas mababa kaysa sa ordinaryong pagmamaneho — ang isang aktibidad ay karaniwang hindi kinokontrol. Ang diskarte sa USA ay higit na pinahihintulutan — hindi mo kailangang patunayan na ligtas ang iyong ginagawa, ngunit kung ito ay lumabas na hindi ligtas maaari kang mapahinto at mapatunayang mananagot sa anumang pinsalang naidulot mo. Ang ilang ibang mga bansa ay mangangailangan sa mga regulator na magpasya nang maaga kung ang isang bagay ay ligtas, isang mas mataas na bar na hindi gaanong nakakatulong sa pagbabago.

Siyempre, sa isang sikat na kaso, ang diskarte sa kaligtasan ng driver ay nagkaroon ng pagkamatay, nang ang sasakyan ng Uber ATG ay pumatay ng isang pedestrian sa Arizona. Napag-alaman ng pagsisiyasat ng NTSB at sa mga huling kaso ng korte na ang driver ng kaligtasan (nanunuod siya ng TV sa halip na gawin ang kanyang trabaho) kahit na sinisi rin ang Uber sa pagkakaroon ng hindi magandang kultura ng pamamahala sa kanilang mga driver ng kaligtasan na nag-ambag sa error na ito. Ang mahalagang konklusyon, gayunpaman, ay iyon gumagana ang sistema ng driver ng kaligtasan at hindi mismo inilalagay ang publiko sa hindi nararapat na panganib, kahit na malinaw na posible para sa mga driver ng kaligtasan ng tao na maging pabaya at maging sanhi ng mataas na panganib.

ADVERTISEMENT

Iyan ang sistema na may mga sinanay na bayad na driver. Mas lumayo pa si Tesla, at pinapagawa ang trabaho ng mga ordinaryong customer. Mayroong ilang mga insidente kung saan ang mga driver ng Tesla ay malinaw na naging pabaya sa pangangasiwa sa produkto ng Autopilot, at ang mga pag-crash, kabilang ang mga nakamamatay, ay naganap. Gayunpaman, ang mga sasakyan ng Tesla ay nagmamaneho ng mas maraming milya gamit ang Autopilot kaysa sa ginagawa ng alinmang self-driving team, kaya ang pagkakaroon ng mga negatibo at kahit na mga trahedya na kaganapan ay hindi nangangahulugang katibayan na inilalantad ng system ang publiko sa mas malaking panganib.

Bawat quarter, nag-publish si Tesla ng mga mapanlinlang na istatistika na nagsasaad na ang mga driver na gumagamit ng Autopilot ay may mas mahusay na mga tala sa kaligtasan kaysa sa mga hindi, kahit na ang ilang mga gumagamit ng Autopilot ay pabaya. Habang ang mga numerong ito ay katumbas ng isang kasinungalingan, Ako at ang iba ay sinubukang i-reverse engineer ang mga tunay na numero, at ang mga tunay na numero ay hindi ganoon kalala, at iminumungkahi na ang mga gumagamit ng Autopilot ay may katulad na rekord ng kaligtasan sa mga hindi gumagamit. Bagama't hindi ito nakahihigit, hindi rin nito inilalantad ang mga tao sa karagdagang panganib. Ang resulta ay sapat na malapit na ang NHTSA ay nagsasagawa ng pagsisiyasat sa mga aksidente sa Tesla sa mga sasakyang pang-emergency. Hindi alam kung gagawin nila ang pag-iingat na diskarte o titingnan ang pangkalahatang rekord ng kaligtasan.

Marami ang nagmungkahi na maaaring mapabuti ni Tesla ang kanilang rekord sa pamamagitan ng mas mahusay na pagmamanman ng driver. Ang karaniwang pagsubaybay ay hinihiling lamang sa driver na regular na maglapat ng puwersa sa gulong. Ang ibang mga kumpanya ay may mga camera na nagmamasid sa mga mata ng driver upang matiyak na sila ay nanonood sa kalsada — kung ginawa ito ng Uber ATG, napigilan nila ang kanilang pagkamatay. Kamakailan ay sinimulan ni Tesla ang paggamit ng pagmamanman ng pagmamanman ng driver.

ADVERTISEMENT

Dapat tandaan na ang pagkalkula na nagpapakita ng kaligtasan ng Tesla Autopilot na katulad ng regular na pagmamaneho ay isang utilitarian. Ito ay aktwal na kumbinasyon ng isang mas mataas na rate ng aksidente sa isang maliit na kadre ng mga pabayang gumagamit ng Autopilot na hindi pinapansin ang kalsada o nakukuha sa kasiyahan sa automation, at isang mas mahusay na rekord ng kaligtasan mula sa mga masigasig. Nahihirapan kaming pilosopikal dito — hindi namin gusto ang ilang tao na magkaroon ng mas mataas na panganib kahit na mas maraming tao ang nakakakuha ng mas mababang panganib. Hindi namin masyadong gusto ito na maaari naming bawian ang masigasig na mga tao ng isang tool na ginagawang mas ligtas sila upang protektahan ang mga pabaya, kahit na hindi ito ang aming layunin.

Paano ang tungkol sa FSD

Ang data sa itaas ay may kinalaman sa Autopilot, na isang produkto sa pagpapadala. Ang Tesla FSD ay hindi isang produkto sa pagpapadala. Tinatawag nila itong isang "beta" (na isang halos pinal na produkto sa huling yugto ng pagsubok nito bago ilabas) ngunit hindi iyon. Mayroon na silang mahigit 100,000 may-ari ng Tesla na sinusubukan ito. Upang magamit ito, ang may-ari ay kailangang magbayad ng bayad (ngayon ay tumataas sa $15,000) upang i-pre-order ang panghuling FSD system, at pumasa sa isang uri ng ligtas na pagsubok sa pagmamaneho upang matanggap sa pangkat ng pagsubok. Ang ligtas na pagsubok sa pagmamaneho ay higit sa lahat ay huwad at hindi sinusubok kung ano talaga ang gusto mo para sa gawaing ito, ngunit nangangahulugan ito na hindi lahat ng nagbabayad ay nakakakuha nito.

Binabalaan nila ang mga driver na ang system ay may maraming mga bug at nangangailangan ng patuloy na pangangasiwa tulad ng ADAS, na nagsasabing, "Gagawin nito ang maling bagay sa pinakamasamang oras." Iyon ay isang medyo malinaw na pahayag, ngunit sa parehong oras ang pangalang "full self driving" ay malinaw na naghahatid ng isang imahe na naiiba sa ADAS. Nagmaneho ako gamit ang sistemang ito at hinusgahan ko ang pagganap nito na medyo mahina bilang isang self-driving system.

ADVERTISEMENT

Gayunpaman, sa kabila ng mga intuwisyon sa kabaligtaran, ang diskarte ni Tesla ay tila gumagana. Sa 100,000 mga driver, ang system ay sumasailalim sa milyun-milyong milya ng operasyon (bagama't walang pampublikong data sa kung gaano ginagamit ng bawat driver ang system.) Alam din namin na mayroong maraming pampublikong pagsisiyasat sa anumang mga aksidente na kinasasangkutan ng pagsubok ng FSD sistema, at kakaunti lamang na bilang ng mga menor de edad na insidente ang naging pampubliko. Bagama't ang ilang mga Tesla FSD tester ay napakalaking tagahanga ng Tesla na maaari nilang itago ang isang aksidente na naranasan nila, napaka-malas na malaking bilang ng mga pangunahing aksidente ang nangyayari nang walang nabunyag. Ang anumang seryosong pulis na nag-ulat ng mga aksidente, lalo na ang mga aksidente sa pinsala, ay malamang na makakuha ng atensyon, tulad ng ginagawa nila para sa Autopilot.

At gayon pa man hindi namin sila nakikita. Bagama't hindi ito isang tunay na siyentipikong pagsusuri, tila malamang na ang programang FSD ng Tesla ay kasalukuyang hindi inilalagay sa panganib ang publiko. Maaaring maiugnay ito sa kung gaano kalala ang sistema. Alam ng karamihan sa mga driver na magiging talagang hangal na hindi bigyang pansin ang sistemang ito sa kasalukuyang estado nito. Posible na habang ito ay bumuti, ito ay magbago. Kung isasaalang-alang mo ang pangunahing cruise control, na mas primitive, ito ay gumagana dahil walang sinuman ang maglalakas-loob na hindi magbayad ng pansin sa kalsada habang ginagamit ito.

ADVERTISEMENT

Pangalan ni Tesla

Hindi tinutulungan ni Tesla ang sarili sa mga pangalan ng produkto nito. Marami ang naging kritikal sa Autopilot bilang isang pangalan, dahil ang (maling) pampublikong pang-unawa ay na ang mga autopilot ng sasakyang panghimpapawid ay lumilipad sa eroplano nang mag-isa. Sa katunayan, ang autopilot ng sasakyang panghimpapawid ay isang napakalaking, napakasimpleng sistema kaysa sa Autopilot ng kotse ni Tesla, at gumagana lamang ito dahil sa himpapawid, napakalayo mo sa anumang bagay na maaari mong matamaan. Gayunpaman, hindi nito pinipigilan ang maling pang-unawa ng publiko. Sa FSD, mas malala pa. Wala pa ito sa antas ng self-driving, hindi pa malapit, at tiyak na hindi ito "puno." Ang pagkalito na ito ay humantong kay Waymo na sumuko sa paggamit ng terminong self-driving upang ilarawan ang kanilang produkto, dahil sa takot na mali ang pagkakatukoy ni Tesla sa termino sa isipan ng publiko.

Hindi talaga kailangan ng Tesla ng higit pang hype para sa kanilang mga produkto. Ibinebenta nila ang lahat ng kanilang magagawa. Nakalilito na sinasadya nilang gamitin ang mga pangalang ito sa halip na maliitin at labis ang paghahatid. Maililigtas nila ang kanilang sarili ng maraming kalungkutan — maliban sa uri ng "lahat ng publisidad ay mabuting publisidad".

Kaya OK lang ba kung ang isang Tesla ay tatama sa isang bata na laki ng dummy?

Ang nakakagulat na sagot ay "malamang." Gagawin ng lahat ng mga sistema ng pagsubok na prototype ang mga bagay na tulad nito, at sa halip na ipagbawal ang lahat ng pagsubok ng mga prototype, walang paraan upang humingi ng pagiging perpekto kahit na sa isang nakakapukaw na isyu tulad ng pag-crash sa mga bata. Mahirap gumawa ng isang regulasyong rehimen na magbabawal sa Tesla FSD na hindi rin nagbabawal o nagpapabagal sa pagbuo ng napakahalagang teknolohiya na sa kalaunan ay magliligtas ng milyun-milyong buhay. Milyun-milyong buhay ay hindi maliit na bagay, ito ay magiging isa sa mga pinakadakilang pagsulong sa kaligtasan sa kasaysayan ng tao.

ADVERTISEMENT

Sa karamihan, maaari naming subukang tukuyin ang mga bagay upang ang mga nangangasiwa sa naturang mga sistema ng pagsubok ay matugunan ang ilang pamantayan. Maaari naming igiit na makakuha sila ng mas mahusay na pagsubaybay (na ginagawa ni Tesla.) Maaari naming hilingin sa kanila na maging propesyonal o makapasa sa isang pagsubok, ngunit pagkatapos ay gagawa kami ng isang katawan na tumutukoy at nagpapatupad ng mga pagsubok na ito, na magiging mahirap. Maaari kang maging isang driving instructor sa pamamagitan lamang ng pagpasa sa isang nakasulat na pagsusulit at pagkuha ng isang sertipiko ng mabuting kalusugan, walang live na pagsusulit sa kasanayan ang ginagawa.

Gayunpaman, maaari naming tukuyin ang isang hanay ng mga panuntunan para sa kung sino ang maaaring mangasiwa ng isang prototype system, at maaari itong huminto sa aktibidad ng Tesla. Ngunit ang paggawa nito ay magiging kabalintunaan ng "mas mabuti ito, mas hindi natin ito gusto." Hindi namin nais na gawing mas mahirap ang pagtawid sa lambak na iyon upang maging isang mas mahusay na sistema. Ang totoong tanong ay kung bakit gugustuhin nating pumunta doon kung walang nasasaktan. Sa ngayon ay walang mga ulat ng mga taong nasaktan, tiyak na wala sa anumang antas na magsasaad na may higit na panganib kaysa sa karaniwang pagmamaneho. Hindi namin nais na mahulog sa bitag ng pagbabawal ng mga bagay dahil mayroon kaming intuwisyon na ito ay mapanganib. Gusto lang naming ipagbawal ang mga bagay na talagang mapanganib.

Posible na ang pagsubok sa Tesla FSD ay magsisimulang maging masyadong mapanganib. Maaaring mangyari ito dahil sa kasiyahan sa automation, o mga pagbabago sa system. Makatuwirang hilingin sa Tesla na iulat sa mga awtoridad kung gaano karaming mga insidente ang naganap sa panahon ng pagsubok ng system, upang malaman natin kung at kailan ito nagiging mapanganib. Ang diskarte ni O'Dowd na "dapat nating ipagbawal ito dahil sa tingin ko ito ay magiging mapanganib" ay mali, hindi bababa sa USA.

ADVERTISEMENT

Basahin at mag-iwan ng mga komento dito

Pinagmulan: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child- miss-the-point/