Vaidlus selle üle, kas Tesla FSD jookseb üle lapse või näivlaps, jätab punkti

A hiljutine video TeslastTSLA
-Dawn Projecti kriitik Dan O'Dowd näitab katserada koonustest tehtud teega. Seal sõidab Tesla FSD prototüüpi kasutav juht lapse mannekeeni juurde ja põrutab sellele. Väidetakse, et Telsa FSD ei pidurda lapsi usaldusväärselt. O'Dowdi kriitikud väitsid, et video oli võltsitud või halvasti loodud ning mõned tegid oma demod, sealhulgas tegid kõigi meelehärmiks testi tegelike elavate "vabatahtlike" lastega. Vähesed kaalusid küsimust, kas selline prototüüp nagu Tesla FSD peaks lapsi usaldusväärselt pidurdama, mis on tõeliselt huvitav probleem.

O'Dowd on sageli kirjutanud, et soovib Tesla FSD keelustamist. Ma kajastasin tema kampaaniat varem, ja hiljuti kandideeris ta California senati kandidaadiks ainult selleks, et esitada Tesla FSD-vastaseid kampaaniareklaame. Ta on loomulikult tõstnud viha Elon Muski ja hääleka Tesla-meelse kogukonna vastu. Seetõttu tekkis kohe sparring. Eespool lingitud algne video ei näidanud FSD aktiveerimist, kuigi hilisemad väljaanded näitasid, et see oli. Mõned väitsid, et raskesti loetavad ekraanipildid ütlesid, et juht hoidis pedaali all. Teised andmed näitavad, et auto aeglustab kiirust või annab hoiatusi ning vaidlused on käinud edasi-tagasi selle üle, kui reaalne demonstratsioon on.

REKLAAM

Meeleavaldus valiti provokatiivseks, sest miski pole hirmutavam kui autod, mis põrutavad lapsi. USA-s hukkub autoõnnetustes iga päev 3 last ja igal aastal hukkub autode tõttu umbes 170 jalakäijat. Paljude jaoks on reaktsioon selline, et ükski tehnoloogia, mis kunagi lapsele otsa sõidaks, pole vastuvõetav. NHTHT
SA alustas uurimist Tesla Autopiloti (mis on välja antud toode) juurutamise kohta ja hakkab uurima FSD prototüüpi. Teised, näiteks Ralph Nader, on samuti helistanud, et viia FSD prototüüp teelt välja. Pärast seda, kui väga väike arv inimesi kordas testi päris lastega, andis NHTSA hoiatuse seda mitte teha ja Youtube tõmbas videoid inimestest, kes seda teevad. Väidetavalt on Tesla palunud eemaldada ka videod, kuidas nende auto vastu proovimannekeeni põrkas. Washington Post teatab, et nägi Teslalt lakkamis- ja loobumiskirja.

See probleem on väga keeruline ja nagu pole ka ebatavaline, ei saa keegi sellest täpselt aru. Kuigi FSD-süsteemi nimetatakse beetaversiooniks, nimetatakse seda täpsemalt prototüübiks. Isejuhtivad prototüübid (ja beetaversioonid) vajavad enamiku arendajate arvates maanteel palju katsetamist ja seda teeb iga meeskond, kus inimestest "ohutusjuhid" jälgivad süsteemi ja sekkuvad regulaarselt, kui see teeb vigu, et vältida vahejuhtumeid. Tesla on ebatavaline selle poolest, et see võimaldab tavaklientidel selles testimises osaleda, samas kui kõigis teistes ettevõtetes on töötajad, kellel on teatud tasemel väljaõpe, ja tavaliselt on sõiduki kohta 2 töötajat.

Prototüübid oma olemuselt ebaõnnestuvad, sealhulgas selliste oluliste asjade puhul nagu jalakäijate peatumine teel. Iga meeskond alates parimatest nagu Waymo kuni halvimateni on teele pannud sõidukeid, mis teeksid regulaarselt midagi tõsiselt halba, välja arvatud sekkumineja enamik arvab, et selliste varajases staadiumis sõidukite testimine oli ja on endiselt vajalik edu saavutamiseks ja lõpuks autode kasutuselevõtuks. Pärast kasutuselevõttu on autod palju kvaliteetsemad ja päästavad elusid – palju neist –, nii et kõik tahavad, et kasutuselevõtt toimuks võimalikult kiiresti, kuid selle kohta, kuidas me selle punktini jõuame ja millal oleme jõudnud, on palju küsimusi, mida arutada. seda.

REKLAAM

Juhiabi vs. isejuhtimine

Lisaks küsimusele, kas Tesla klientide kasutamine nende prototüübi testimiseks on hea mõte, keerlevad paljud probleemid juhiabisüsteemide erinevuse ümber, mis hõlmab inimest, kes on täielikult sõiduga seotud, kuid kontrollib süsteemi, mitte ei liigu füüsiliselt. juhtseadised ja isejuhtivad süsteemid, kus inimese järelevalvet pole vaja (ja tõepoolest, sõiduk ei saa sõita, kui selles pole kedagi).

Paljud tööstuse siseringid arvavad, et need on kaks üsna erinevat asja ja et NHTSA tegi vea, kui kuulutas need vaid kaheks erinevaks automatiseerimistehnoloogia "tasemeks". Sterling Anderson, Aurora isejuhtimise kaasasutaja, arvab, et juhiabilt (või ADAS-ilt, täiustatud juhiabi puhul) isejuhtimisele üleminek on nagu katse kõrgemate redelite ehitamisega Kuule jõuda.

Esimene suur täiustatud juhiabisüsteem, mis lasi inimesel jalad pedaalidelt maha võtta, oli püsikiiruse hoidja, eelkõige adaptiivne püsikiiruse hoidja. Hiljem saabus sõidurajahoidmine, mis võimaldas käed roolilt ära võtta, ja peagi ühendati need kaks toodetes nagu Tesla “Autopilot”. Need on ADAS-i (juhiabi) tööriistad, mis on mõeldud kasutamiseks täie tähelepanuga.

REKLAAM

Kuigi kõik seda alguses ei uskunud, on täna üldine järeldus, et need süsteemid töötavad ega tekita teel ohtu. Inimesed kahtlesid algul isegi elementaarses püsikiiruse regulaatoris, kuid peagi sai sellest autode puhul väga levinud funktsioon.

Tesla Autopilot tõstatas uusi küsimusi erinevatel põhjustel, kuid kõige huvitavam probleem on seotud asjaoluga, et see on oma funktsionaalsuselt selgelt parem kui varasemad tooted, sealhulgas lihtsamad püsikiiruse regulaatorid – ometi võib see paremus muuta selle ohtlikumaks ja seega halvemaks. Tekib veider paradoks, kus mida parem süsteem on, seda halvem võib tulemus olla, sest parem süsteem kutsub esile “automaatse rahulolu”, kus järelevalvet teostav juht pöörab teele vähem tähelepanu. (Mõned usuvad ka, et Tesla "Autopiloot" ja FSD nimed soodustavad seda rahulolu ning ka nende toodetega seotud avalikud sõnumid.)

See ei ole hea paradoks. Tahame välja töötada paremaid süsteeme, kuid kui süsteem muutub paremaks muutmisel üldiselt halvemaks, on palju raskem saada tõeliselt häid süsteeme, kui reisite läbi ohuoru, kus asjad lähevad enne paremaks muutumist hullemaks. Tänapäeval ei süüdistaks me tavalist püsikiiruse regulaatorit selles, et see tabab last või puhub läbi punase tule – need süsteemid olid palju lihtsamad ja neil polnud üldse võimalust neid vigu vältida. Kuid paljud tahavad süüdistada palju paremat süsteemi, mis peatub enamiku takistuste korral, kuna see ei peatu 100% - kuigi ükski süsteem pole kunagi nii täiuslik, et vältida 100% vigu, ja kuigi ka inimesed pole täiuslikud.

REKLAAM

Osalesin maailma esimeste isejuhtimise testimise seaduste koostamises Nevadas ja Californias. Mängijad leppisid kokku, et teedel testimise kohta peaksid kehtima mõned põhireeglid (varasemad reeglid seda ei keelanud, sest loomulikult ei mõelnud keegi seda kunagi teha.) Samal ajal tegid seda autotootjad, kes müüvad ADAS-i tööriistu. ei soovi, et nende ADAS-i autode suhtes kohaldataks isejuhtimise testi eeskirju, mistõttu ADAS-i toimimine muudeti nende eeskirjadega hõlmamata.

Eelkõige Californias tekitas see lahtise küsimuse. Kõik isejuhtimise testid (mõne hiljutise erandiga) tehakse järelevalvet teostava ohutusjuhiga. Sel moel sarnaneb see ADAS-i autoga sõitmisega. Seaduses ei olnud selget vahet, mis on tekitanud huvitavaid olukordi. Anthony Levandowski, kes osales ka määruste koostamises, oli hiljem Uberi juhtUBER
ATG. Ta teatas, et kuna kõik nende autod töötasid sel ajal ainult turvajuhiga, oli see ADAS ja Uber ei pea järgima isejuhtimise testimise eeskirju. California DMV ütles ei, et selle loogika kohaselt ei testinud keegi isejuhtimist ja see ei olnud seaduse eesmärk. Nad ütlesid Uberile, et peavad end isejuhtivate testsõidukitena registreerima, vastasel juhul tõmbavad nad Uberi autode numbrimärgid oma erivõimeid kasutades. Uber järgis seda.

REKLAAM

DMV asus seisukohale, et kui proovite luua isejuhtimise süsteemi, kuigi see oli varakult mittetäielik, mis vajas järelevalvet ja oli alati järelevalve all, tuleks teid pidada isejuhtivate testimisettevõteteks, mille suhtes kehtivad eeskirjad.

Sellest hoolimata jätkab Tesla sama lähenemisviisi. Kuna Teslal on kindlasti ADAS-toode, ei teata nad kunagi riigile isejuhtimise testimisest. Seni on DMV sellel libisenud – isegi Tesla FSD testimisel Tesla töötajate poolt, mida on väga raske eristada sellest, mida nad Uberi tegemast takistasid. DMV võib seda hästi reguleerida. Aga kuidas on lood klientide kasutamisega, kus see on ametlikult (kui loed peenes kirjas ja ignoreerid nime) juhi abivahend?

Aga tundub, et töötab

Selle peamiseks lahenduseks on olnud viisid, kuidas tagada järelevalve kõrge tähelepanu püsimine. Selleks on erinevaid tehnikaid, sealhulgas juhi mitmel viisil jälgimine ja nende näägutamine, kui ta ei pööra tähelepanu või kui on märgitud, et neil on koolitatud professionaalsed juhid või isegi nende meeskond, kellel on teel mitu pilku. Aastakümneid oleme autokoolides koolitanud teismelisi autojuhte nii, et meil on instruktor, kes suudab rooli haarata ja kellel on auto peatamiseks oma pidur ning see süsteem on väga hästi töötanud.

REKLAAM

Senine tugev järeldus on, et see toimib. Suuremate isesõitvate ettevõtete nagu Waymo ohutus on eeskujulik. Waymo teatas 20. aastal üle 2021 miljoni miili testimisest ohutusjuhtidega ja selle aja jooksul on juhtunud võib-olla kaks süülõnnetust. Selle aja jooksul juhtub inimestega keskmiselt 2 õnnetust. Nii nagu sõiduõpetajatega autojuhiõpilased saavad palju paremini hakkama kui värskelt juhiloa omavad juhid, toimib selgelt ka seiresüsteem ning need sõidukid tekitavad avalikkusele tegelikult vähem ohtu kui tavainimeste samalaadne sõit.

Vähemalt USA-s ei oleks tegevus üldiselt reguleeritud, kui keegi viga ei saa – või vähemalt kui riskitase on tavalisest autojuhtimisest väiksem. USA lähenemisviis on palju lubavam – te ei pea tõestama, et see, mida te teete, on ohutu, kuid kui see osutub ebaturvaliseks, võidakse teid peatada ja teie tekitatud kahju eest vastutada. Mõned teised riigid nõuavad, et reguleerivad asutused otsustaksid eelnevalt, kas miski on ohutu. See on palju kõrgem latt, mis on palju vähem innovatsiooni soodustav.

Muidugi juhtus ühel kuulsal juhul turvajuhi lähenemine surmaga lõppenud juhtumile, kui Uber ATG sõiduk tappis Arizonas jalakäija. NTSB uurimise ja hilisemate kohtuasjade käigus leiti, et ohutusjuht oli hooletu (ta vaatas oma töö asemel televiisorit), kuigi Uberile heideti ette ka kehva turvajuhtide juhtimiskultuuri, mis sellele veale kaasa aitas. Oluline järeldus on aga see ohutusjuhisüsteem töötab ega sea avalikkust liigselt ohtu, kuigi on ilmselgelt võimalik, et inimohutusjuhid on hooletud ja põhjustavad suurt ohtu.

REKLAAM

See on koolitatud tasuliste juhtide süsteem. Tesla läheb kaugemale ja laseb seda tööd teha tavaklientidel. On olnud mitmeid intsidente, kus Tesla juhid on Autopiloti toote järelevalvet selgelt hooletult teinud, ja on toimunud õnnetusi, sealhulgas surmaga lõppenud. Kuid Tesla autod sõidavad autopiloodiga tunduvalt rohkem kilomeetreid kui ükski isejuhtiv meeskond, nii et negatiivsete ja isegi traagiliste sündmuste olemasolu ei pruugi olla tõend selle kohta, et süsteem seab avalikkuse suuremasse ohtu.

Tesla avaldab igas kvartalis eksitavat statistikat, mis väidab, et Autopiloti kasutavatel juhtidel on paremad ohutusnäitajad kui neil, kes seda ei tee, kuigi mõned Autopiloti kasutajad on hooletud. Kuigi need numbrid on võrdväärsed valega, Mina ja teised oleme püüdnud reaalnumbreid pöördprojekteerida, ja tegelikud numbrid polegi nii halvad ning viitavad sellele, et Autopiloti kasutajatel on sarnane ohutuslugu kui mittekasutajatel. Kuigi see pole parem, ei sea see inimesi täiendavatele riskidele. Tulemus on piisavalt lähedal, et NHTSA viib läbi Tesla hädaabisõidukitega toimunud õnnetuste uurimist. Ei ole teada, kas nad kasutavad ettevaatust või vaatavad üldist ohutust.

Paljud on väitnud, et Tesla võiks oma rekordit parandada juhtide parema jälgimisega. Standardne jälgimine nõuab lihtsalt, et juht rakendaks rattale regulaarselt jõudu. Teistel ettevõtetel on kaamerad, mis jälgivad juhi silmi, et olla kindel, et nad jälgivad teed – kui Uber ATG oleks seda teinud, oleksid nad nende surma ära hoidnud. Tesla on hiljuti hakanud kasutama ka juhi pilgu jälgimist.

REKLAAM

Tuleb märkida, et arvutus, mis näitab Tesla Autopiloti ohutust tavalise sõiduga sarnasena, on utilitaarne. See on tegelikult kombinatsioon suuremast õnnetusjuhtumite arvust väikese hooletute Autopiloodi kasutajate seas, kes eiravad teed või satuvad automaatikaga rahulolusse, ja hoolsate inimeste paremast turvalisusest. Meil on sellega filosoofiliselt raske – meile ei meeldi, kui mõnel inimesel on suurem risk, kuigi rohkematel inimestel on väiksem risk. Meile see nii väga ei meeldi, et võiksime hoolsad inimesed ilma jätta vahendist, mis muudab nad hoolimatute kaitsmiseks turvalisemaks, kuigi see pole meie eesmärk.

Aga FSD

Ülaltoodud andmed puudutavad Autopiloti, mis on saatmistoode. Tesla FSD ei ole saatmistoode. Nad kutsuvad seda "beetaversioonis" (mis on peaaegu valmis toode viimases testimisetapis enne avaldamist), kuid see pole üldse see. Nüüd on neil seda proovimas üle 100,000 15,000 Tesla omaniku. Selle kasutamiseks peab omanik maksma võimaliku FSD-süsteemi ettetellimise eest tasu (nüüd tõuseb XNUMX XNUMX dollarini) ja sooritama teatud tüüpi ohutu sõidueksami, et pääseda testimisgruppi. Ohutu sõidueksam on suures osas võlts ja ei testi seda, mida te selle ülesande jaoks tegelikult sooviksite, kuid see tähendab, et kõik, kes maksavad, ei saa seda.

Nad hoiatavad juhte, et süsteemil oli palju vigu ja see vajab pidevat järelevalvet nagu ADAS, öeldes: "See teeb halvimal ajal valesti." See on üsna selge väide, kuid samas tekitab nimetus “täielikult isejuhtimine” ilmselgelt ADAS-ist erineva pildi. Olen selle süsteemiga sõitnud ja hinnanud selle jõudlust isejuhtiva süsteemina üsna kehvaks.

REKLAAM

Vaatamata vastupidisele intuitsioonile näib Tesla lähenemine siiski toimivat. 100,000 XNUMX juhiga süsteem läbib miljoneid miile (kuigi puuduvad avalikud andmed selle kohta, kui palju iga juht süsteemi kasutab.) Teame ka, et FSD testimisega seotud õnnetuste üle on suur avalik kontroll. süsteemi ja avalikuks on saanud vaid väike arv väiksemaid intsidente. Kuigi mõned Tesla FSD-testijad on nii suured Tesla fännid, et võivad varjata juhtunud õnnetust, on äärmiselt ebatõenäoline, et juhtub märkimisväärne arv suurõnnetusi, millest ühtegi ei avaldata. Kõik tõsised politseist teatatud õnnetused, eriti vigastustega seotud õnnetused, saavad suure tõenäosusega tähelepanu, nagu ka Autopiloodi puhul.

Ja ometi me ei näe neid. Kuigi see pole tõeline teaduslik analüüs, tundub tõenäoline, et Tesla FSD programm ei sea praegu avalikkust ohtu. See võib olla tingitud sellest, kui halb süsteem on. Enamik juhte teab, et oleks tõesti rumal sellele süsteemile selle praeguses olekus tähelepanu mitte pöörata. Võimalik, et paremaks muutudes see muutub. Kui arvestada elementaarset püsikiiruse regulaatorit, mis on palju primitiivsem, siis see töötab, sest keegi ei julge seda kasutades teele tähelepanu pöörata.

REKLAAM

Tesla nimetamine

Tesla ei aita ennast oma tootenimedega. Paljud on olnud kriitilised Autopiloodi kui nime suhtes, sest (vale) avalikkuse arusaam on, et lennukite autopiloodid lendavad lennukit iseseisvalt. Tegelikult on lennuki autopiloot tohutult palju lihtsam süsteem kui Tesla auto Autopiloot ja see töötab ainult seetõttu, et õhus olete väga kaugel kõigest, mida võite tabada. See aga ei peata avalikkuse valet arusaama. FSD puhul on asi veelgi hullem. See ei ole veel isejuhtimise tasemel, isegi mitte lähedal ja kindlasti pole see "täis". See segadus pani Waymo loobuma oma toote kirjeldamiseks isejuhtimise termini kasutamisest, kartes, et Tesla on selle mõiste avalikkuses valesti määratlenud.

Tesla ei vaja oma toodete jaoks tegelikult rohkem reklaami. Nad müüvad kõike, mida teha suudavad. Hämmastav on see, et nad kasutavad neid nimesid teadlikult, selle asemel, et alahinnata ja üle pakkuda. Nad säästaksid end paljudest leinadest, välja arvatud "kõik reklaam on hea reklaam".

Kas on OK, kui Tesla tabab lapsesuurust mannekeeni?

Üllatav vastus on "tõenäoliselt". Kõik testimisprototüüpide süsteemid teevad selliseid asju ja kui keelata prototüüpide testimine, pole mingit võimalust nõuda täiuslikkust isegi sellises põnevas küsimuses nagu kokkupõrked lastega. Raske on luua regulatiivset režiimi, mis keelaks Tesla FSD, mis ei keelaks ega aeglustaks ka väga olulise tehnoloogia arendamist, mis päästab aja jooksul miljoneid elusid. Miljonid elud pole väike asi, see on üks suurimaid edusamme ohutuse alal inimkonna ajaloos.

REKLAAM

Maksimaalselt võiks proovida asju defineerida nii, et need, kes selliseid testisüsteeme juhendavad, vastavad teatud kriteeriumidele. Võiksime nõuda, et nad saaksid paremat järelevalvet (mida Tesla teeb). Võiksime paluda neil olla professionaalsed või läbida testi, kuid siis loome asutuse, mis määratleb ja jõustab need testid, mis oleks tülikas. Sõiduõpetajaks saab lihtsalt kirjaliku testi sooritamise ja hea tervise kohta tunnistuse saamisega, osavustesti otseülekandes ei tehta.

Sellegipoolest võiksime määratleda reeglid selle kohta, kes saab prototüüpsüsteemi järelevalvet teostada, ja see võib Tesla tegevuse peatada. Kuid see tähendaks langemist paradoksi "mida parem on, seda rohkem see meile ei meeldi". Me ei taha raskendada selle oru ületamist paremaks süsteemiks saamisel. Tegelik küsimus on selles, miks me üldse tahame sinna minna, kui keegi haiget ei saa. Praegu ei ole teateid inimeste vigastamise kohta, kindlasti mitte ühelgi tasemel, mis viitaks tavalisest sõidust suuremale riskile. Me ei taha langeda asjade keelamise lõksu, sest meil on intuitsioon, et need on ohtlikud. Me tahame keelata ainult need asjad, mis tegelikult on ohtlikud.

On täiesti võimalik, et Tesla FSD testimine hakkab hiljem liiga ohtlikuks muutuma. See võib juhtuda automatiseerimisega rahulolu või süsteemi muudatuste tõttu. On mõistlik, et Teslal palutakse ametiasutustele teada anda, kui palju intsidente süsteemi testimise ajal aset leiab, et saaksime teada, kas ja millal see ohtlikuks muutub. O'Dowdi lähenemine "me peaksime selle keelama, sest mulle tundub, et see oleks ohtlik" on vale, vähemalt USA-s.

REKLAAM

Loe ja jäta siia kommentaarid

Allikas: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child- igatseb punkti/