A hiljutine video Teslast
O'Dowd on sageli kirjutanud, et soovib Tesla FSD keelustamist. Ma kajastasin tema kampaaniat varem, ja hiljuti kandideeris ta California senati kandidaadiks ainult selleks, et esitada Tesla FSD-vastaseid kampaaniareklaame. Ta on loomulikult tõstnud viha Elon Muski ja hääleka Tesla-meelse kogukonna vastu. Seetõttu tekkis kohe sparring. Eespool lingitud algne video ei näidanud FSD aktiveerimist, kuigi hilisemad väljaanded näitasid, et see oli. Mõned väitsid, et raskesti loetavad ekraanipildid ütlesid, et juht hoidis pedaali all. Teised andmed näitavad, et auto aeglustab kiirust või annab hoiatusi ning vaidlused on käinud edasi-tagasi selle üle, kui reaalne demonstratsioon on.
REKLAAM
Meeleavaldus valiti provokatiivseks, sest miski pole hirmutavam kui autod, mis põrutavad lapsi. USA-s hukkub autoõnnetustes iga päev 3 last ja igal aastal hukkub autode tõttu umbes 170 jalakäijat. Paljude jaoks on reaktsioon selline, et ükski tehnoloogia, mis kunagi lapsele otsa sõidaks, pole vastuvõetav. NHT
See probleem on väga keeruline ja nagu pole ka ebatavaline, ei saa keegi sellest täpselt aru. Kuigi FSD-süsteemi nimetatakse beetaversiooniks, nimetatakse seda täpsemalt prototüübiks. Isejuhtivad prototüübid (ja beetaversioonid) vajavad enamiku arendajate arvates maanteel palju katsetamist ja seda teeb iga meeskond, kus inimestest "ohutusjuhid" jälgivad süsteemi ja sekkuvad regulaarselt, kui see teeb vigu, et vältida vahejuhtumeid. Tesla on ebatavaline selle poolest, et see võimaldab tavaklientidel selles testimises osaleda, samas kui kõigis teistes ettevõtetes on töötajad, kellel on teatud tasemel väljaõpe, ja tavaliselt on sõiduki kohta 2 töötajat.
Prototüübid oma olemuselt ebaõnnestuvad, sealhulgas selliste oluliste asjade puhul nagu jalakäijate peatumine teel. Iga meeskond alates parimatest nagu Waymo kuni halvimateni on teele pannud sõidukeid, mis teeksid regulaarselt midagi tõsiselt halba, välja arvatud sekkumineja enamik arvab, et selliste varajases staadiumis sõidukite testimine oli ja on endiselt vajalik edu saavutamiseks ja lõpuks autode kasutuselevõtuks. Pärast kasutuselevõttu on autod palju kvaliteetsemad ja päästavad elusid – palju neist –, nii et kõik tahavad, et kasutuselevõtt toimuks võimalikult kiiresti, kuid selle kohta, kuidas me selle punktini jõuame ja millal oleme jõudnud, on palju küsimusi, mida arutada. seda.
REKLAAM
Juhiabi vs. isejuhtimine
Lisaks küsimusele, kas Tesla klientide kasutamine nende prototüübi testimiseks on hea mõte, keerlevad paljud probleemid juhiabisüsteemide erinevuse ümber, mis hõlmab inimest, kes on täielikult sõiduga seotud, kuid kontrollib süsteemi, mitte ei liigu füüsiliselt. juhtseadised ja isejuhtivad süsteemid, kus inimese järelevalvet pole vaja (ja tõepoolest, sõiduk ei saa sõita, kui selles pole kedagi).
Paljud tööstuse siseringid arvavad, et need on kaks üsna erinevat asja ja et NHTSA tegi vea, kui kuulutas need vaid kaheks erinevaks automatiseerimistehnoloogia "tasemeks". Sterling Anderson, Aurora isejuhtimise kaasasutaja, arvab, et juhiabilt (või ADAS-ilt, täiustatud juhiabi puhul) isejuhtimisele üleminek on nagu katse kõrgemate redelite ehitamisega Kuule jõuda.
Esimene suur täiustatud juhiabisüsteem, mis lasi inimesel jalad pedaalidelt maha võtta, oli püsikiiruse hoidja, eelkõige adaptiivne püsikiiruse hoidja. Hiljem saabus sõidurajahoidmine, mis võimaldas käed roolilt ära võtta, ja peagi ühendati need kaks toodetes nagu Tesla “Autopilot”. Need on ADAS-i (juhiabi) tööriistad, mis on mõeldud kasutamiseks täie tähelepanuga.
REKLAAM
Kuigi kõik seda alguses ei uskunud, on täna üldine järeldus, et need süsteemid töötavad ega tekita teel ohtu. Inimesed kahtlesid algul isegi elementaarses püsikiiruse regulaatoris, kuid peagi sai sellest autode puhul väga levinud funktsioon.
Tesla Autopilot tõstatas uusi küsimusi erinevatel põhjustel, kuid kõige huvitavam probleem on seotud asjaoluga, et see on oma funktsionaalsuselt selgelt parem kui varasemad tooted, sealhulgas lihtsamad püsikiiruse regulaatorid – ometi võib see paremus muuta selle ohtlikumaks ja seega halvemaks. Tekib veider paradoks, kus mida parem süsteem on, seda halvem võib tulemus olla, sest parem süsteem kutsub esile “automaatse rahulolu”, kus järelevalvet teostav juht pöörab teele vähem tähelepanu. (Mõned usuvad ka, et Tesla "Autopiloot" ja FSD nimed soodustavad seda rahulolu ning ka nende toodetega seotud avalikud sõnumid.)
See ei ole hea paradoks. Tahame välja töötada paremaid süsteeme, kuid kui süsteem muutub paremaks muutmisel üldiselt halvemaks, on palju raskem saada tõeliselt häid süsteeme, kui reisite läbi ohuoru, kus asjad lähevad enne paremaks muutumist hullemaks. Tänapäeval ei süüdistaks me tavalist püsikiiruse regulaatorit selles, et see tabab last või puhub läbi punase tule – need süsteemid olid palju lihtsamad ja neil polnud üldse võimalust neid vigu vältida. Kuid paljud tahavad süüdistada palju paremat süsteemi, mis peatub enamiku takistuste korral, kuna see ei peatu 100% - kuigi ükski süsteem pole kunagi nii täiuslik, et vältida 100% vigu, ja kuigi ka inimesed pole täiuslikud.
REKLAAM
Osalesin maailma esimeste isejuhtimise testimise seaduste koostamises Nevadas ja Californias. Mängijad leppisid kokku, et teedel testimise kohta peaksid kehtima mõned põhireeglid (varasemad reeglid seda ei keelanud, sest loomulikult ei mõelnud keegi seda kunagi teha.) Samal ajal tegid seda autotootjad, kes müüvad ADAS-i tööriistu. ei soovi, et nende ADAS-i autode suhtes kohaldataks isejuhtimise testi eeskirju, mistõttu ADAS-i toimimine muudeti nende eeskirjadega hõlmamata.
Eelkõige Californias tekitas see lahtise küsimuse. Kõik isejuhtimise testid (mõne hiljutise erandiga) tehakse järelevalvet teostava ohutusjuhiga. Sel moel sarnaneb see ADAS-i autoga sõitmisega. Seaduses ei olnud selget vahet, mis on tekitanud huvitavaid olukordi. Anthony Levandowski, kes osales ka määruste koostamises, oli hiljem Uberi juht
REKLAAM
DMV asus seisukohale, et kui proovite luua isejuhtimise süsteemi, kuigi see oli varakult mittetäielik, mis vajas järelevalvet ja oli alati järelevalve all, tuleks teid pidada isejuhtivate testimisettevõteteks, mille suhtes kehtivad eeskirjad.
Sellest hoolimata jätkab Tesla sama lähenemisviisi. Kuna Teslal on kindlasti ADAS-toode, ei teata nad kunagi riigile isejuhtimise testimisest. Seni on DMV sellel libisenud – isegi Tesla FSD testimisel Tesla töötajate poolt, mida on väga raske eristada sellest, mida nad Uberi tegemast takistasid. DMV võib seda hästi reguleerida. Aga kuidas on lood klientide kasutamisega, kus see on ametlikult (kui loed peenes kirjas ja ignoreerid nime) juhi abivahend?
Aga tundub, et töötab
Selle peamiseks lahenduseks on olnud viisid, kuidas tagada järelevalve kõrge tähelepanu püsimine. Selleks on erinevaid tehnikaid, sealhulgas juhi mitmel viisil jälgimine ja nende näägutamine, kui ta ei pööra tähelepanu või kui on märgitud, et neil on koolitatud professionaalsed juhid või isegi nende meeskond, kellel on teel mitu pilku. Aastakümneid oleme autokoolides koolitanud teismelisi autojuhte nii, et meil on instruktor, kes suudab rooli haarata ja kellel on auto peatamiseks oma pidur ning see süsteem on väga hästi töötanud.
REKLAAM
Senine tugev järeldus on, et see toimib. Suuremate isesõitvate ettevõtete nagu Waymo ohutus on eeskujulik. Waymo teatas 20. aastal üle 2021 miljoni miili testimisest ohutusjuhtidega ja selle aja jooksul on juhtunud võib-olla kaks süülõnnetust. Selle aja jooksul juhtub inimestega keskmiselt 2 õnnetust. Nii nagu sõiduõpetajatega autojuhiõpilased saavad palju paremini hakkama kui värskelt juhiloa omavad juhid, toimib selgelt ka seiresüsteem ning need sõidukid tekitavad avalikkusele tegelikult vähem ohtu kui tavainimeste samalaadne sõit.
Vähemalt USA-s ei oleks tegevus üldiselt reguleeritud, kui keegi viga ei saa – või vähemalt kui riskitase on tavalisest autojuhtimisest väiksem. USA lähenemisviis on palju lubavam – te ei pea tõestama, et see, mida te teete, on ohutu, kuid kui see osutub ebaturvaliseks, võidakse teid peatada ja teie tekitatud kahju eest vastutada. Mõned teised riigid nõuavad, et reguleerivad asutused otsustaksid eelnevalt, kas miski on ohutu. See on palju kõrgem latt, mis on palju vähem innovatsiooni soodustav.
Muidugi juhtus ühel kuulsal juhul turvajuhi lähenemine surmaga lõppenud juhtumile, kui Uber ATG sõiduk tappis Arizonas jalakäija. NTSB uurimise ja hilisemate kohtuasjade käigus leiti, et ohutusjuht oli hooletu (ta vaatas oma töö asemel televiisorit), kuigi Uberile heideti ette ka kehva turvajuhtide juhtimiskultuuri, mis sellele veale kaasa aitas. Oluline järeldus on aga see ohutusjuhisüsteem töötab ega sea avalikkust liigselt ohtu, kuigi on ilmselgelt võimalik, et inimohutusjuhid on hooletud ja põhjustavad suurt ohtu.
REKLAAM
See on koolitatud tasuliste juhtide süsteem. Tesla läheb kaugemale ja laseb seda tööd teha tavaklientidel. On olnud mitmeid intsidente, kus Tesla juhid on Autopiloti toote järelevalvet selgelt hooletult teinud, ja on toimunud õnnetusi, sealhulgas surmaga lõppenud. Kuid Tesla autod sõidavad autopiloodiga tunduvalt rohkem kilomeetreid kui ükski isejuhtiv meeskond, nii et negatiivsete ja isegi traagiliste sündmuste olemasolu ei pruugi olla tõend selle kohta, et süsteem seab avalikkuse suuremasse ohtu.
Tesla avaldab igas kvartalis eksitavat statistikat, mis väidab, et Autopiloti kasutavatel juhtidel on paremad ohutusnäitajad kui neil, kes seda ei tee, kuigi mõned Autopiloti kasutajad on hooletud. Kuigi need numbrid on võrdväärsed valega, Mina ja teised oleme püüdnud reaalnumbreid pöördprojekteerida, ja tegelikud numbrid polegi nii halvad ning viitavad sellele, et Autopiloti kasutajatel on sarnane ohutuslugu kui mittekasutajatel. Kuigi see pole parem, ei sea see inimesi täiendavatele riskidele. Tulemus on piisavalt lähedal, et NHTSA viib läbi Tesla hädaabisõidukitega toimunud õnnetuste uurimist. Ei ole teada, kas nad kasutavad ettevaatust või vaatavad üldist ohutust.
Paljud on väitnud, et Tesla võiks oma rekordit parandada juhtide parema jälgimisega. Standardne jälgimine nõuab lihtsalt, et juht rakendaks rattale regulaarselt jõudu. Teistel ettevõtetel on kaamerad, mis jälgivad juhi silmi, et olla kindel, et nad jälgivad teed – kui Uber ATG oleks seda teinud, oleksid nad nende surma ära hoidnud. Tesla on hiljuti hakanud kasutama ka juhi pilgu jälgimist.
REKLAAM
Tuleb märkida, et arvutus, mis näitab Tesla Autopiloti ohutust tavalise sõiduga sarnasena, on utilitaarne. See on tegelikult kombinatsioon suuremast õnnetusjuhtumite arvust väikese hooletute Autopiloodi kasutajate seas, kes eiravad teed või satuvad automaatikaga rahulolusse, ja hoolsate inimeste paremast turvalisusest. Meil on sellega filosoofiliselt raske – meile ei meeldi, kui mõnel inimesel on suurem risk, kuigi rohkematel inimestel on väiksem risk. Meile see nii väga ei meeldi, et võiksime hoolsad inimesed ilma jätta vahendist, mis muudab nad hoolimatute kaitsmiseks turvalisemaks, kuigi see pole meie eesmärk.
Aga FSD
Ülaltoodud andmed puudutavad Autopiloti, mis on saatmistoode. Tesla FSD ei ole saatmistoode. Nad kutsuvad seda "beetaversioonis" (mis on peaaegu valmis toode viimases testimisetapis enne avaldamist), kuid see pole üldse see. Nüüd on neil seda proovimas üle 100,000 15,000 Tesla omaniku. Selle kasutamiseks peab omanik maksma võimaliku FSD-süsteemi ettetellimise eest tasu (nüüd tõuseb XNUMX XNUMX dollarini) ja sooritama teatud tüüpi ohutu sõidueksami, et pääseda testimisgruppi. Ohutu sõidueksam on suures osas võlts ja ei testi seda, mida te selle ülesande jaoks tegelikult sooviksite, kuid see tähendab, et kõik, kes maksavad, ei saa seda.
Nad hoiatavad juhte, et süsteemil oli palju vigu ja see vajab pidevat järelevalvet nagu ADAS, öeldes: "See teeb halvimal ajal valesti." See on üsna selge väide, kuid samas tekitab nimetus “täielikult isejuhtimine” ilmselgelt ADAS-ist erineva pildi. Olen selle süsteemiga sõitnud ja hinnanud selle jõudlust isejuhtiva süsteemina üsna kehvaks.
REKLAAM
Vaatamata vastupidisele intuitsioonile näib Tesla lähenemine siiski toimivat. 100,000 XNUMX juhiga süsteem läbib miljoneid miile (kuigi puuduvad avalikud andmed selle kohta, kui palju iga juht süsteemi kasutab.) Teame ka, et FSD testimisega seotud õnnetuste üle on suur avalik kontroll. süsteemi ja avalikuks on saanud vaid väike arv väiksemaid intsidente. Kuigi mõned Tesla FSD-testijad on nii suured Tesla fännid, et võivad varjata juhtunud õnnetust, on äärmiselt ebatõenäoline, et juhtub märkimisväärne arv suurõnnetusi, millest ühtegi ei avaldata. Kõik tõsised politseist teatatud õnnetused, eriti vigastustega seotud õnnetused, saavad suure tõenäosusega tähelepanu, nagu ka Autopiloodi puhul.
Ja ometi me ei näe neid. Kuigi see pole tõeline teaduslik analüüs, tundub tõenäoline, et Tesla FSD programm ei sea praegu avalikkust ohtu. See võib olla tingitud sellest, kui halb süsteem on. Enamik juhte teab, et oleks tõesti rumal sellele süsteemile selle praeguses olekus tähelepanu mitte pöörata. Võimalik, et paremaks muutudes see muutub. Kui arvestada elementaarset püsikiiruse regulaatorit, mis on palju primitiivsem, siis see töötab, sest keegi ei julge seda kasutades teele tähelepanu pöörata.
REKLAAM
Tesla nimetamine
Tesla ei aita ennast oma tootenimedega. Paljud on olnud kriitilised Autopiloodi kui nime suhtes, sest (vale) avalikkuse arusaam on, et lennukite autopiloodid lendavad lennukit iseseisvalt. Tegelikult on lennuki autopiloot tohutult palju lihtsam süsteem kui Tesla auto Autopiloot ja see töötab ainult seetõttu, et õhus olete väga kaugel kõigest, mida võite tabada. See aga ei peata avalikkuse valet arusaama. FSD puhul on asi veelgi hullem. See ei ole veel isejuhtimise tasemel, isegi mitte lähedal ja kindlasti pole see "täis". See segadus pani Waymo loobuma oma toote kirjeldamiseks isejuhtimise termini kasutamisest, kartes, et Tesla on selle mõiste avalikkuses valesti määratlenud.
Tesla ei vaja oma toodete jaoks tegelikult rohkem reklaami. Nad müüvad kõike, mida teha suudavad. Hämmastav on see, et nad kasutavad neid nimesid teadlikult, selle asemel, et alahinnata ja üle pakkuda. Nad säästaksid end paljudest leinadest, välja arvatud "kõik reklaam on hea reklaam".
Kas on OK, kui Tesla tabab lapsesuurust mannekeeni?
Üllatav vastus on "tõenäoliselt". Kõik testimisprototüüpide süsteemid teevad selliseid asju ja kui keelata prototüüpide testimine, pole mingit võimalust nõuda täiuslikkust isegi sellises põnevas küsimuses nagu kokkupõrked lastega. Raske on luua regulatiivset režiimi, mis keelaks Tesla FSD, mis ei keelaks ega aeglustaks ka väga olulise tehnoloogia arendamist, mis päästab aja jooksul miljoneid elusid. Miljonid elud pole väike asi, see on üks suurimaid edusamme ohutuse alal inimkonna ajaloos.
REKLAAM
Maksimaalselt võiks proovida asju defineerida nii, et need, kes selliseid testisüsteeme juhendavad, vastavad teatud kriteeriumidele. Võiksime nõuda, et nad saaksid paremat järelevalvet (mida Tesla teeb). Võiksime paluda neil olla professionaalsed või läbida testi, kuid siis loome asutuse, mis määratleb ja jõustab need testid, mis oleks tülikas. Sõiduõpetajaks saab lihtsalt kirjaliku testi sooritamise ja hea tervise kohta tunnistuse saamisega, osavustesti otseülekandes ei tehta.
Sellegipoolest võiksime määratleda reeglid selle kohta, kes saab prototüüpsüsteemi järelevalvet teostada, ja see võib Tesla tegevuse peatada. Kuid see tähendaks langemist paradoksi "mida parem on, seda rohkem see meile ei meeldi". Me ei taha raskendada selle oru ületamist paremaks süsteemiks saamisel. Tegelik küsimus on selles, miks me üldse tahame sinna minna, kui keegi haiget ei saa. Praegu ei ole teateid inimeste vigastamise kohta, kindlasti mitte ühelgi tasemel, mis viitaks tavalisest sõidust suuremale riskile. Me ei taha langeda asjade keelamise lõksu, sest meil on intuitsioon, et need on ohtlikud. Me tahame keelata ainult need asjad, mis tegelikult on ohtlikud.
On täiesti võimalik, et Tesla FSD testimine hakkab hiljem liiga ohtlikuks muutuma. See võib juhtuda automatiseerimisega rahulolu või süsteemi muudatuste tõttu. On mõistlik, et Teslal palutakse ametiasutustele teada anda, kui palju intsidente süsteemi testimise ajal aset leiab, et saaksime teada, kas ja millal see ohtlikuks muutub. O'Dowdi lähenemine "me peaksime selle keelama, sest mulle tundub, et see oleks ohtlik" on vale, vähemalt USA-s.
REKLAAM
Allikas: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child- igatseb punkti/