Har Dan O'Dowd ret?
Ikke alle er vilde med Teslas FSD (Full Self-Driving)
For hvor god er den egentlig i vanskelige situationer?
Her på Motorbloggen er det også blevet diskuteret.
Der er blevet kigget mange timers YouTube-video igennem fra beta-testere - også af undertegnede.
Flere har været imponeret og det er der ikke noget at sige til, hvis man sammenligner med de systemer vi i dag kender.
Men ikke alle er lige begejstret.
I weekendens Super Bowl dukkede en 30-sekunders reklameblok op med et helt andet budskab: FSD er farlig og skal stoppes.
Bag reklamen står Dan O'Dowd, der er en californisk rigmand, som har gjort det til sin mission, at få stoppet Teslas FSD.
Hans eget firma Green Hills Software, er for øvrigt leverandør til Mobileye, der også leverer teknologi til selvkørende funktioner.
Han stillede sågar op til parlamentet i delstaten med det ene punkt på sit politiske program - men blev ikke valgt.
Der er været flere udvekslinger mellem Dan O'Dowd og Tesla. Elon Musk har kaldt ham for "skør", og det software som Green Hills Software udvikler, for en "bunke lort".
Dan O'Dowd har omvendt kaldt FSD for 'hensynsløst" og "utrygt" og sagt, at Elon Musk har leveret software, der vil køre børn ned foran deres skole.
Læs om kontroversen her og her.
Men har Dan O'Dowd fat i noget?
Et af de argumenter, der altid bliver bragt frem, når selvkørende biler omtaler er, at de er meget mere sikre end menneskelige chauffører.
For når alle biler er selvkørende, så er der ingen dumme mennesker til at foretage dumme valg og derfor vil antallet af trafikulykker få mod nul.
Argumentet er i princippet måske rigtigt, hvis vi forudsætter en verden, hvor alle biler automatiseret.
Men er vi på vejen dertil parat til at acceptere en ulykke forårsaget af et ansigtsløst computerprogram?
Hvem skal i fængsel, hvis en person køres ned med fuldt overlæg - for eksempel et barn midt på vejen som enhver billist ville have set?
Kan vi acceptere en overgangsperiode, hvor vi blander software og menneskelige fejl?
Se reklamen fra Super Bowl her:
- emailE-mail
- linkKopier link

- Sortér efter chevron_right
- Trådet debat
Nu er der jo et ret kraftigt bias i kraft af at FSD kun bruges på større (og sikrere) veje. Alene det at det er nyere, dyrere biler gør nok også en stor forskel.
Hvad snakker du om? Teslas FSD kan bruges på stort set alle veje i USA - lige fra grusveje over biveje til motorvej.
Nu er der jo et ret kraftigt bias i kraft af at FSD kun bruges på større (og sikrere) veje. Alene det at det er nyere, dyrere biler gør nok også en stor forskel.Her er Tesla statistik over antal mio miles før uheld hhv med og uden ADAS: <a href="https://www.tesla.com/da_dk/VehicleSafetyR..">https://www.tesla.com/da_…;.
Ikke i USA, hvor myndighederne bundet af præcis de ord der står i loven.
Jeg er ikke så vant til at læse amerikansk lov, men lov skrives jo generelt ikke alt for præcist. Detailplanlægning overlades som regel til bekedtgørelser og vejledninger. Jeg har her fundet de relevante part frem til dig, hvor det tydeligt fremgår af title 49 chapter 301 §30118 part d) samt §30102, at NHTSA skal lade være med at gøre sager ud af ikke-sager. Væsentligt her er nok, at unreasonable skal diskuteres. For den diskussion kan du se indlæg #56's kommentar.https://uscode.house.gov/view.xhtml?req=granuleid%3AUSC-prelim-title49-chapter301&edition=prelim
Citat:
*§30118. Notification of defects and noncompliance (c) Notification by Manufacturer.—A manufacturer of a motor vehicle or replacement equipment shall notify the Secretary by certified mail or electronic mail, and the owners, purchasers, and dealers of the vehicle or equipment as provided in section 30119(d) of this section, if the manufacturer—
(1) learns the vehicle or equipment contains a defect and decides in good faith that the defect is related to motor vehicle safety; or
(2) decides in good faith that the vehicle or equipment does not comply with an applicable motor vehicle safety standard prescribed under this chapter.
(d) Exemptions.—On application of a manufacturer, the Secretary shall exempt the manufacturer from this section if the Secretary decides a defect or noncompliance is inconsequential to motor vehicle safety.
§30102 (9) "motor vehicle safety" means the performance of a motor vehicle or motor vehicle equipment in a way that protects the public against unreasonable risk of accidents occurring because of the design, construction, or performance of a motor vehicle, and against unreasonable risk of death or injury in an accident, and includes nonoperational safety of a motor vehicle.*
"A vehicle recall is a process through which a vehicle manufacturer voluntarily recalls (or the National Highway Traffic Safety Administration (NHTSA) compels a manufacturer to recall) a vehicle because a particular aspect of its design has failed to meet the federal standards of safety. A recall could also be due to a safety-related manufacturing defect."
Once a car is determined to have a particular defect, the manufacturer has three options under the provisions of vehicle recall laws.
"1 Repair: In this option, the carmaker fixes the defect at no cost to the consumer. This remedy usually applies to small defects that can be easily repaired."
"2 Replace: In this option, the carmaker replaces the defective vehicle at no cost to the consumer. This is usually the remedy when the issue cannot be fixed. The replacement vehicle has to be a similar model or identical to the original one".
"3 Refund: In this option, the manufacturer issues a refund for the purchase. The amount to be reimbursed takes into account the depreciation cost of the vehicle. Keep in mind that these same remedies also apply to makers of car accessories such as child safety seats. Additionally, if you had already incurred some expenses for repairing an issue that is later the subject of a recall, you are entitled to a refund for the cost of service."
Problemet for aktiv sikkerhedssystemer er at de skal gætte på hvad den menneskelige fører har set eller ikke har set. Så snart maskinen er helt i kontrol, så vil den kunne undgå at situationen opstår ved at lave et almindeligt stop i stedet for en katastrofeopbremsning.
Kameraer i førerkabinen bliver nok almindeligt. Teslaer kan genkende, når føreren sidder og kigger på telefonen.
Spørgsmålet er bare, hvad man vælger at gøre ved det. Det kunne være at gøre nødbremsesystemet mere følsomt i sådan et øjeblik, for det kan kategoriseres som at maskinen har eller bør have fuldt kontrol.
Problem ikke bare på grund af sensations effekten, når medierne melder ud, og alt hvad det medfører, men misvisende betegnelse, når bilerne slet ikke skal tilbagekaldes.
Skidt pyt med sensationseffekten eller de ragebait forsøg som journalister ofte forsøger sig med. Værre er, at den her noget kontraproduktive holdning til udvikling opfordrer producenter til at udvikle produkter mindst muligt, da de så ikke løbende skal holdes opdateret og fritager dem fra at skulle have en life-cycle management strategi. Det alene med udgangspunkt i at undgå potentielle tilbagetrækninger.
- At forlange at FSD aldrig slaar nogen ihjael er irrationelt. Det er derimod rimeligt at forlange at autonome systemer slaar klart faerre ihjael end gode bilister.
- At sige at autonome systemer ikke maa koere i offentlig traffik foer de er "gode nok" er ikke noget man skulle hoere fra ingenioerer. Disse systemer skal traenes og det kan man kun goere i den rigtige verden hvor maerkelige ting sker ("edge cases"). Det burde ikke vaere stort problem hvis der er et menneske der holder oeje med trafikken
Det er ikke lovgivningens ord, men NHTSA's egen terminologi som de holder fast i. ( Derfor mit tidligere spørgsmål #24 )Hertil skal dog tilføjes, at myndighederne jo godt udvikle deres sprogbrug</p>
<p>Ikke i USA, hvor myndighederne bundet af præcis de ord der står i loven.
Problemet har været diskuteret en del netop i landet hvor NHTSA i de fleste tilfælde anmoder producenten selv om at foretage et safety recall. Det ville man vide hvis man havde fulgt med i sagen.
Problem ikke bare på grund af sensations effekten, når medierne melder ud, og alt hvad det medfører, men misvisende betegnelse, når bilerne slet ikke skal tilbagekaldes.
Det er jo ikke kun Teslas biler der “slipper for det,” en del andre producenter er begyndt på OTA opdateringer, og problemet bliver kun større i takt med at endnu flere ting bliver OTA mulige at opdatere, som recall eksperter som selv påpeger.
Det er Amerikanske myndigheder og recall eksperter, der er klar over at der er et problem der skal tages hånd om, uanset hvad nogen her i Dannevang måtte have af personlige holdninger dertil.
”While the NHTSA will likely continue to maintain the status quo with its recall terminologies for the foreseeable future, Professor Ball told Teslarati that the agency can actually implement some adjustments now that can make distinguishing safety fixes and issues clearer. This would likely be extremely important in the near future as more connected cars are rolled out and software updates become the norm.”
"Recalls can affect the perception of a company to the public. Software fixes should be one of the factors that are considered an edge for automakers like Tesla, not the other way around. Gary Black, Managing Partner of The Future Fund LLC, explained this from the point of view of a Tesla investor. “Since every NHTSA recall so far has been quickly solvable via Tesla OTA updates, ‘recalls’ are noise to most investors. Tesla’s huge software edge highlights one of the key advantages of owning Tesla over every other EV manufacturer,” the Wall Street veteran told Teslarati"
"OTA updates, including those related to vehicle safety, are coming. With automakers like Ford joining the group of carmakers embracing OTA updates, software-based fixes are inevitable. Ultimately, I am inclined to agree with the recall specialist. By refusing to adapt to the advent of software-based vehicle fixes, the NHTSA may risk being left behind by the automotive industry. And that’s a scenario that I believe no automaker — or government agency for that matter — would prefer."
https://www.teslarati.com/tesla-ota-recalls-vs-nhtsa-terminologies-exclusive/
Som blogger på ingeniøren
Jeg har ikke været blogger på Ingeniøren i over to år, hvorfor jeg stadig er markeret som sådan har sikkert en træls teknisk forklaring.
men det er der ikke behov for her
Det er vi så nok mange der er uenige med dig i. Problemet med at kalde de her juridiske tilbagetrækninger for tilbagetrækninger, er at der i etymologisk forstand ikke er tale om en tilbagetrækning. Det udvander begrebet og gør folk ligeglade. Der er en grund til at man f.eks. indenfor lægemiddel eller medical device produktion skelner.
Som blogger på ingeniøren bør du holde dig fra at kalde andre Muskovites som skældsord. Det virker meget uprofessionelt.
Ja, men de kan jo bede politikerne opdatere loven, hvor den er uhensigtmæssig. Det er sådan set en del af det de laver....
Selvfølgelig kan de det, men det er der ikke behov for her: De beordrer et "recall" og så er det op til bilproducenten at gennemfører det på en eller anden måde.
At nogle Muskovites så får propagandaen galt i halsen over ordet er ikke deres problem.
EU har indført at alle nye biler skal have aktive systemer der bremser i netop det beskrevne tilfælde. Og her synes det at være relevant at nævne, i en artikel om kritik af Teslas systemer, at netop Tesla ligger nummer 1:
@Baldur: Jep, sådan et radarbaseret system har jeg også i bilen, men det forhindrer ikke nødvendigvis en ulykke. I bedste fald vil ulykken blive mindre slem fordi bilen automatisk bremser, men ulykken bliver ikke helt undgået.
Jeg har et par gange prøvet at min VW Polo bremser hård, og det er altid sket i biltrafik, hvor jeg har acelleret lidt kvikt, og så er en bil foran brems ved f.eks. et lyskryds. Bilen flipper helt ud, bremsen aktiveres og der lyder en høj advarselstone.
Ingen af de gange jeg har oplevet nødbremsen har jeg været i nogen form for fare, så jeg har fået et chock hver gang.
En nødbremse er en løsning på et problem, der aldrig bør opstå. Symptombehandling vil jeg kalde det.
Ikke i USA, hvor myndighederne bundet af præcis de ord der står i loven.
Ja, men de kan jo bede politikerne opdatere loven, hvor den er uhensigtmæssig. Det er sådan set en del af det de laver....
Det uheld var ikke sket, hvis den uopmærksome billist havde en selvkørende bil.
EU har indført at alle nye biler skal have aktive systemer der bremser i netop det beskrevne tilfælde. Og her synes det at være relevant at nævne, i en artikel om kritik af Teslas systemer, at netop Tesla ligger nummer 1:
https://www.euroncap.com/en/ratings-rewards/best-in-class-cars/2022/
Ud af 6 modeller er de 3 fra Tesla på ovenstående link.
Se også videoer fra EuroNCAP af hvordan Teslas systemer stopper bilen inden kollision:
https://youtu.be/dKaN3f2zmCQ?t=154
Problemet for aktiv sikkerhedssystemer er at de skal gætte på hvad den menneskelige fører har set eller ikke har set. Så snart maskinen er helt i kontrol, så vil den kunne undgå at situationen opstår ved at lave et almindeligt stop i stedet for en katastrofeopbremsning.
Hertil skal dog tilføjes, at myndighederne jo godt udvikle deres sprogbrug
Ikke i USA, hvor myndighederne bundet af præcis de ord der står i loven.
Det giver sig nogle underlige udslag og dyre retssager indimellem, f.eks har spørgsmålet "Er CO2 fra afbrænding af fossile brændsler »luftforurening« i den betydning ordet er brugt i Clean Air Act fra Nixontiden" været forbi deres Højesteret.
Der er ikke så meget at tænke over: "Recall" er det ord der bruges i den lov der bemyndiger dem til at holde bilproducenter ansvarlige overfor det skrammel de sender på gaden.</p>
<p>Længere er den ikke...
Hertil skal dog tilføjes, at myndighederne jo godt udvikle deres sprogbrug, da det er åbenlyst fra andre lignende lovgivninger, at 'recall' og 'withdrawal' jo ikke kan stå alene. Her i EU har har man f.eks. konceptet 'field safety corrective action' og 'field service notice' i brug, som man sagtens kunne overføre til bilindustrien. ps. recall oversættes til tilbagetrækning.
Jeg lyder måske lidt skinger i tonen, men et banalt uheld var for efterhånden en del år siden ved at koste min kæreste og hendes børn livet.
Min kæreste holdt stille på vejen og skulle svinge til venstre, da hun bliver påkørt bagfra af en ung billist, der havde travlt med at kigge på sin mobiltelefon.
Til alt held skete uheldet på en skolevej, hvor fartbump minder billisterne om, at fartgrænsen er 50 KM/t, og til alt held kørte den uopmærksomme billist "kun" op bag i bilen. Alle slap fra uheldet relativt uskadte, men det var rent held, at den uopmærksomme billist fik taget noget af farten af før sammenstødet.
Den uopmærksomme billist kunne lige så godt have kørt 3-4 børn over i et af fodgængerfelterne, og så var det trods alt bedre, at billisten smadrede sin lille Toyota Aygo i mødet med en solid Ford Mondeo.
Det uheld var ikke sket, hvis den uopmærksome billist havde en selvkørende bil.
Det er min lille anektode fra virkelighedens verden, men den anektode er NETOP det vi bør diskuterer omkring selvkørende biler.
Hvor mange uheld og menneskeliv kan selvkørende biler redde, selvom teknologien ikke er perfekt endnu?
Overskriften på artiklen er "Har Dan O'Dowd ret?" Nej, han har ikke ret. Han er en klovn, som forsinker den uundgåelige udvikling af selvkørende biler, og den forsinkelse han er skyld i, det vil koste titusindevis af liv.
Jeg mangler ord til at beskrive et menneske som Dan O'Dowd, som på den måde med sine manipulerende handlinger bevidst og fuld stændig unødvendigt påfører millioner af mennesker både fysisk og psysisk smerte. Ordet "klovn" er ikke dækkende, ligesom ord som "psykopat" eller "sadomachochist" nok heller ikke med rette vil beskrive den afsky jeg har over for sådan et menneske.
@Bjørn Godske: Ja, vi bør slippe FSD (og lignende systemer) løs i Damark, og det kommer nok også snart til at ske. Måske bliver det først i Norge eller Tyskland, men vi burde være med fremme i bussen i Danmark.
Vi bliver ikke først i Danmark. Danmark har været en stor stopklods for mere fleksible regler i EU/FN regi og så er det ikke særligt sandsynligt at vi skulle gå videre som de første.
Tyskland er derimod et godt bud. De ønsker at støtte industrien og Tesla er nu også en del af den tyske bilindustri. Mercedes er også langt fremme og er den eneste fabrikant der har lavet et level 3 system under de gamle regler, som tillader autonom kørsel på motorvej op til 60 km/t. Mon ikke Mercedes snart opgraderer til de nye regler, som tillader autonom kørsel på motorvej op til 130 km/t?
Jeg observerer at skeptikere af FSD ofte fremfører alt eller intet argumenter. So what hvis der er nogle svære gader i Københavns middelalderkvarter? Det kunne være at vi bare kan starte uden disse steder. Faktisk er vi en del der vil være super glade hvis bare vi kan få det på motorvej - med næste mål landevejene. Det er jo de lange træk der er kedelige og hvor der er store produktivitetsgevinster, hvis man kan bruge tiden fornuftigt under transport.
Hvis vi fik muligheden, skulle FSD så slippes løs i Danmark?
@Bjørn Godske: Ja, vi bør slippe FSD (og lignende systemer) løs i Damark, og det kommer nok også snart til at ske. Måske bliver det først i Norge eller Tyskland, men vi burde være med fremme i bussen i Danmark.
Til resten af dine spørgsmål:
- Et af de argumenter, der altid bliver bragt frem, når selvkørende biler omtaler er, at de er meget mere sikre end menneskelige chauffører.
Hvad siger statisikken? Den siger, at FSD er sikrer under de fleste forhold. Sålænge vi taler om et niveau 2 system, så er der virkelig ikke mange gode argumenter imod at lade danske Tesla ejere afprøve systemet.
For når alle biler er selvkørende, så er der ingen dumme mennesker til at foretage dumme valg og derfor vil antallet af trafikulykker få mod nul.
Det arguement er lige så dårlig som det er gammelt.
De selvkørende systemer skal kunne køre rundt blandt både dumme mennesker og andre selvkørende biler. Selvkørende biler vil også foretage dumme valg, men sammenlignet med mennesker, så kan vi fjerne en masse af de oplagte dumheder.
En selvkørende bil kører f.eks. ikke spritkørsel, taler i mobiltelefon, koncenterer sig om ungerne på bagsædet eller kigger efter damer i lårkorte kjoler.
Mennesker er dagligt indvolveret i utallige uheld på de danske veje, som selvkørende biler ikke vil være skyld i. Vi skal holde op med, at forvente fejlfrie selvkørende systemer, når vi mennesker daglige laver så mange, mange fejl ude i virkeligheden.
Argumentet er i princippet måske rigtigt, hvis vi forudsætter en verden, hvor alle biler automatiseret.
Sludder og vrøvl. Der er intet omkring selvkørende biler, som forudsætter, at alle biler er automatiseret. Teslas FSD viser med al tydelighed at det er muligt for selvkørende biler, at køre rundt i trafikken, hvor næsten alle biler bliver styret af mennesker.
Men er vi på vejen dertil parat til at acceptere en ulykke forårsaget af et ansigtsløst computerprogram?
Ja, det er vi rent juridisk - det er det vi bruger SAE niveauerne til. Om "vi" er klar til det er underordnet, hvis det juridiske er på på plads - JEG er klar, sålænge teknologien statistisk set er mere sikker end de kød-computere, der kører rundt bag rattet i dag.
Hvem skal i fængsel, hvis en person køres ned med fuldt overlæg - for eksempel et barn midt på vejen som enhver billist ville have set?
Det afgør lovgivningen og SAE niveauet. Ring til Trafikstyrelsen og spørg hvad deres regler er.
Kan vi acceptere en overgangsperiode, hvor vi blander software og menneskelige fejl?
Ja, for det gør vi på mange andre områder.
Hvornår har du sidst siddet i en flyvemaskine? De fleste flyvemaskiner har en udpræget grad af automation, og vi ved at en hel del fly er styrtet ned pga. denne automation. Ingeniøren har skrevet side op og side ned om Boeing 737 MAX, og alligevel tillader vi flyrejser...
Det virkelig underlige er, at vi accepterer utallige uheld sker ude i trafikken hver dag. Uheld som med 100% garanti ikke ville være sket, hvis bilen var selvkørende.
Hvordan mon man tilbagekalder et løbsk AI-styret kampfly :-)
Det vil man ikke gøre i USA.
For man kræver blot recall.
Der betyder et safety recall at SW (hvor kunstige, eller hvor intelligente de end måtte være) kan udbedres over og i luften ;-)
Svar på:
Det engelske ord "recall" betyder vitterligt "tilbagekald" og det faktum at Tesla slipper for det fordi har over-the-air opdatering af software forandrer ikke hvad ordet betyder, eller de juridiske konsekvenser som følger.
Hvordan mon man tilbagekalder et løbsk AI-styret kampfly :-)
Men du har vist også noget hjemmearbejde at gøre andetsteds, som jeg husker det.
Bland andet mangler HJN at tage en tur til paven i Rom, hvor HJN forklarer, hvorfor den katolske kirke skal skifte indstilling vedrørende prævention og abort.
Mvh Bjørn
Jeg forundres over dem der ser så rødt når bare Elon strejfer deres tanker, at de ikke evner at se klart.</p>
<p>Kunne du eventuelt gøre udsigten mere klar? <a href="https://www.politico.eu/article/spacex-res..">https://www.politico.eu/a…;.
Jeg evner desværre ikke at nå dig, det har vi jo konstateret i adskillige tidligere tråde.
Men du har vist også noget hjemmearbejde at gøre andetsteds, som jeg husker det.
Jeg forundres over dem der ser så rødt når bare Elon strejfer deres tanker, at de ikke evner at se klart.
Kunne du eventuelt gøre udsigten mere klar?https://www.politico.eu/article/spacex-restricted-internet-ukraine-prevent-escalation-elon-musk-russia-starlink-ww3-gwynne-shotwell-drones-infrastructure/
citat: "Nu er man vist ved at løbe med en and. Min Tesla har ikke udvist besynderlig adfærd overfor cyklister der står op i pedalerne"
Din bil kører heller ikke med FSD beta stakken, som er under test i USA..
På dansk software tilbagekaldelse.
Det er vidst brug for en ny måde at beskrive at det er softwaren og ikke hardwaren der skal rettes i.
Fremtidens bil ejere vil anse det som mis information hvis bilen "tilbage kaldes".
Okay boomer jeg skal ned på værkstedet og få hakket nye huller i hul kortet.
Måske det er fordi Tesla (helt berettiget) opponerer imod betegnelsen recall, af noget der vil blive ændret i SW opdatering, og problemet er noget testføreren selv skal håndtere, som der også helt tydeligt står i rapporten:
Det skyldes nok nærmere at NHTSA skubber sig forrest i køen af bugfixes til FSD beta.
Det er ikke usædvanligt, at bugs prioriteres efter hyppighed, og den type bugs som er rapporteret af NHTSA er åbenbart ikke hyppige nok til at andre har meldt dem ind.
Det tvinger Tesla til at arbejde på ting der ikke har høj prioritet for øjeblikket, fordi der er andre, potentielt værre problemer at få styr på først, og der er jo nok at tage af.
Alternativt lever buggen i en del af FSD beta, som alligevel er ved at blive faset ud, og det tvinger ekstra ressourcer til fix og vedligeholdelse af døende kode. Path finding koden er nok den skyldige part her, og den bliver efter sigende faset ud i FSD beta version 11 til fordel for neurale netværk.
Sidst NHTSA havde FSD beta oppe at vende var i forbindelse med rullende stop ved stop skilte, som er lovligt i nogle stater, men ikke i andre. Igen kom FSD beta op i nyhedscyklussen om at den "ikke fulgte trafikreglerne", når nu ingen af betatesterne reelt havde protesteret mod det. Her var der tale om en mindre justering af opførslen ved stop skilte. Selvfølgelig til irritation for Californiske bilister, der er vant til rullende stop.
FSD beta er kun et førerassistent system pro-forma, for at undgå lovkrav og garantier om sikkerhed de ikke kan stille endnu. Det gør de simpelthen ved at lægge alarmer og påmindelser på føreren om at holde øjnene på vejen og holde i rattet under FSD beta kørsel.
Det er et Level 5 system under udvikling, så selvfølgelig kan de ikke give garantier.
Nøjagtigt som alle andre førerassistent systemer, så intet pro-forma der.
Mon dog, fordi de påtaler en potentiel risiko, betyder det jo ikke at Tesla og deres +300.000 beta førere ikke har bemærket noget.I dette tilfælde var det NHTSA der opdagede det.
On January 25, 2023, as part of regular ongoing communications between Tesla and NHTSA relating to Autopilot and FSD Beta, NHTSA advised Tesla that it had identified potential concerns related to certain operational characteristics of FSD Beta in four specific roadway environments, as described above. NHTSA requested that Tesla address these concerns by filing a recall notice.</p>
<p>Tesla ville ikke erkende noget problem i første omgang:</p>
<p>On February 7, 2023, while not concurring with the agency’s analysis, Tesla decided to administer a voluntary recall out of an abundance of caution.
Måske det er fordi Tesla (helt berettiget) opponerer imod betegnelsen recall, af noget der vil blive ændret i SW opdatering, og problemet er noget testføreren selv skal håndtere, som der også helt tydeligt står i rapporten:
https://static.nhtsa.gov/odi/rcl/2023/RCLRPT-23V085-3451.PDF
"In the specific and rare circumstances described above when a Tesla vehicle is operating with a software version of FSD Beta as described below and with FSD Beta engaged, certain driving maneuvers could potentially infringe upon local traffic laws or customs, with could increase the risk of a collision if the driver does not intervene."
"As part of FSD Beta’s general design, the feature provides visual and audible that can Occur : warnings in certain circumstances to alert the driver to their constant supervisory responsibility, which customers acknowledge and agree to prior to first using FSD Beta. Independent of any warnings from FSD Beta, the driver’s observations of the vehicle’s operations and environmental surroundings may also indicate that intervention is necessary."
Jeg forundres over dem der ser så rødt når bare Elon strejfer deres tanker, at de ikke evner at se klart.Jeg er egentlig ret ligeglad med Tesla, men jeg er allergisk overfor fans, der føler det er nødvendigt for dem at undskylde ALT.
Tesla opdaterer løbende sin software til forhåbentligt mere og mere fejlfri versioner. Men lige netop denne opdatering skete åbenbart på baggrund af, at en del af Teslas biler var så fejlbehæftede, at det korrekt udløste et officielt påbud fra myndighederne.
Tesla udvikler på det mest krævende system, Level 5. Der vil komme mange SW opdateringer inden de forhåbentlig lykkes. Myndighederne har som altid en forpligtigelse til at holde med producenterne, men:
"Problems with Tesla's FSD Beta system mean cars could undertake maneuvers that "could potentially infringe upon local traffic laws or customs, which could increase the risk of a collision if the driver does not intervene," said an NHTSA notice. Read more:" https://www.legit.ng/business-economy/1520421-tesla-recalls-360000-vehicles-driver-assistance-system-issues/
Ingen har påstået at Teslas FSD system ikke er fejlbehæftet, netop derfor er der over 300.000 testkørere, for at finde fejlene. De har ansvaret, derfor skal de 'intervene'
Det mener du vel ikke!Hvis han har snydt
Udover det, så er det noget vrøvl at tale om betasoftware som noget specielt, det er et ikke specielt dækkende ord og det er ikke implicit med farligt software. Tesla har statistik på deres Betasoftware som er sikkerhedsfremmende så det batter. Du skal stille et andet og bedre spørgsmål og det må du selv ligge og rode med, det du stiller er ikke specielt godt og heller ikke dit brug af en svindler som argumentation.
Hvis du ville prøve at holde dig til fakta bare en enkelt gang, kan vi jo konstatere at Tesla ingen selvkørende biler har.</p>
<p>Nøjagtigt som alle andre førerassistent systemer, er det føreren der har ansvaret, også FSD beta testkørerne.
FSD beta er kun et førerassistent system pro-forma, for at undgå lovkrav og garantier om sikkerhed de ikke kan stille endnu. Det gør de simpelthen ved at lægge alarmer og påmindelser på føreren om at holde øjnene på vejen og holde i rattet under FSD beta kørsel.
Så snart disse varsler fjernes bliver det et level 3 system, der kan køre selv, mens føreren tager over, når det er nødvendigt. Tesla bliver så ansvarlige for ulykker.
Gennem en raffinering af FSD beta's nuværende arkitektur, er det tænkt at systemet kan blive level 5 godkendt.
Selvfølgelig skal myndighederne holde øje med alle producenters systemer og give påbud, men tror du virkelig at Tesla ikke selv ville have ændret SW, uden påbud?</p>
<p>Og hvem tror du først opdager fejl i Teslas SW?
I dette tilfælde var det NHTSA der opdagede det.
On January 25, 2023, as part of regular ongoing communications between Tesla and NHTSA relating to
Autopilot and FSD Beta, NHTSA advised Tesla that it had identified potential concerns related to certain
operational characteristics of FSD Beta in four specific roadway environments, as described above. NHTSA
requested that Tesla address these concerns by filing a recall notice.
Tesla ville ikke erkende noget problem i første omgang:
On February 7, 2023, while not concurring with the agency’s analysis, Tesla decided to administer a voluntary recall out of an abundance of caution.
Det besynderlige i erkendelsen er at:
As of February 14, 2023, Tesla has identified 18 warranty claims, received between May 8, 2019, and September 12, 2022, that may be related to the conditions described above.
Så det er meget muligt at erkendelsen kun kommer ved at grave grundigt i hvad ældre versioner af softwaren kunne finde på, og hvad 18 kunder har rapporteret.
FSD Beta var ikke offentligt tilgængeligt til betatestere før Oktober 2021. Så man må konkluderede, at der altså ikke helt er styr på software versionerne hos NHTSA endnu.
I alt har NHTSA fungeret som priviligerede betatester med hotline adgang til Tesla's udviklere, og kan tale offentligt om sagen.
Den fulde rapport:
https://static.nhtsa.gov/odi/rcl/2023/RCLRPT-23V085-3451.PDF
Helt enig. Jeg har i øvrigt et gæt på hvem der har introduceret denne dumme overdrivelse - den kunne jo tænkes at komme fra bogstaverne "FSD"...Tesla ingen selvkørende biler har
Jeg er egentlig ret ligeglad med Tesla, men jeg er allergisk overfor fans, der føler det er nødvendigt for dem at undskylde ALT. Tesla opdaterer løbende sin software til forhåbentligt mere og mere fejlfri versioner. Men lige netop denne opdatering skete åbenbart på baggrund af, at en del af Teslas biler var så fejlbehæftede, at det korrekt udløste et officielt påbud fra myndighederne. Men det er vi vel enige om?tror du virkelig at Tesla ikke selv ville have ændret SW, uden påbud?
Det engelske ord "recall" betyder vitterligt "tilbagekald" og det faktum at Tesla slipper for det fordi har over-the-air opdatering af software forandrer ikke hvad ordet betyder, eller de juridiske konsekvenser som følger.
Så du mener ikke der er stor forskel på tilbagekaldelse af software, og tilbagekaldelse af biler.
Javel så.
Og alligevel formår mange, især journalister, at oversætte et påbud kaldet "a recall", (et krav om udbedring af et observeret problem) til en tilbagekaldelse af biler.
Det engelske ord "recall" betyder vitterligt "tilbagekald" og det faktum at Tesla slipper for det fordi har over-the-air opdatering af software forandrer ikke hvad ordet betyder, eller de juridiske konsekvenser som følger.
Tesla tilbagekalder heller ikke en eneste bil</p>
<p>... i stedet for at brokke dig over myndighedernes officielle sprog, kunne du jo forholde dig til, at Tesla atter må erkende, at deres selvtøffende biler fortsat ikke kan adlyde og forstå ret simple færdselsregler. Og at Tesla derfor får offentligt skæld ud af myndighederne, og påbud om at rette op på deres systems mange farlige unoder.
Hvis du ville prøve at holde dig til fakta bare en enkelt gang, kan vi jo konstatere at Tesla ingen selvkørende biler har.
Nøjagtigt som alle andre førerassistent systemer, er det føreren der har ansvaret, også FSD beta testkørerne.
Selvfølgelig skal myndighederne holde øje med alle producenters systemer og give påbud, men tror du virkelig at Tesla ikke selv ville have ændret SW, uden påbud?
Og hvem tror du først opdager fejl i Teslas SW?
... i stedet for at brokke dig over myndighedernes officielle sprog, kunne du jo forholde dig til, at Tesla atter må erkende, at deres selvtøffende biler fortsat ikke kan adlyde og forstå ret simple færdselsregler. Og at Tesla derfor får offentligt skæld ud af myndighederne, og påbud om at rette op på deres systems mange farlige unoder. Hvilket naturligvis giver Dan O'Dowd mulighed for stor skadefryd.Tesla tilbagekalder heller ikke en eneste bil
Der er ikke så meget at tænke over: "Recall" er det ord der bruges i den lov der bemyndiger dem til at holde bilproducenter ansvarlige overfor det skrammel de sender på gaden.</p>
<p>Længere er den ikke...
Præcis. Og alligevel formår mange, især journalister, at oversætte et påbud kaldet "a recall", (et krav om udbedring af et observeret problem) til en tilbagekaldelse af biler.
Men godt at du, og andre, forstår at ikke alt bare kan oversættes direkte, og ydermere tillægges ekstra betydning.
"A recall" er en naturlig betegnelse fra den tid hvor biler skulle tilbage til værksted, for at få ordnet enhvert problem.
Men myndighederne i USA fastholder at det skal kaldes a recall. (Så kan man jo tænke over hvorfor de stadig gør det)
Der er ikke så meget at tænke over: "Recall" er det ord der bruges i den lov der bemyndiger dem til at holde bilproducenter ansvarlige overfor det skrammel de sender på gaden.
Længere er den ikke...
Nej, Tesla tilbagekalder heller ikke en eneste bil denne gang.
Men myndighederne i USA fastholder at det skal kaldes a recall. (Så kan man jo tænke over hvorfor de stadig gør det)
De skriver netop:skriver The National Highway Traffic Safety Administration.
"The recall notice was posted on the website of the National Highway Traffic Safety Administration on Thursday."
"Tesla will deliver an over-the-air software update to cars to address the issues, the recall notice said."
Og
Skriver:
"The company says it will send a remote update to remedy the problem, as it has done with past recalls."
Så der er som sædvanligt sendt SW update ud til de berørte, længe før noget af det skrevne ser læsernes blik.
FSD Beta-systemet kan forårsage uheld ved at tillade de berørte biler at:“act unsafe around intersections, such as traveling straight through an intersection while in a turn-only lane, entering a stop sign-controlled intersection without coming to a complete stop, or proceeding into an intersection during a steady yellow traffic signal without due caution”, skriver The National Highway Traffic Safety Administration.
Jeg mangler egentlig bare kildekritik, vi har nu flere gange diskutteret det ovenstående klip, og det ser da også ud til at flertallet herinde er enige om at vi ikke kan bruge O'dowds klip til noget eftersom de tydeligvis ikke bliver fremvist på et neutralt grundlag. Så at snakke om selvkørende biler ud fra disse klip giver ingen mening.
Jeg erkender, at brugen af O'Dowd ikke er god. Hvis han har snydt, så er det klart, at hans påstande selvfølgelig ikke kan bruges til en bred diskussion af selvkørende funktioner.
Ja, jeg er godt klar over at det giver mange visninger at snakke om O'dowd, men vi kan sagtens snakke om selvkørende biler, FSD, autopilot osv... uden at benytte os af videoklip fra en åbenlys fupmager der selv forsøger at lave selvkørende biler der konkurrere med Tesla.
Der er stor forskel på at tage en generel snak omkring alle probematikkerne omkring selvkørende biler i dag og i fremtiden ud fra neutrale uklippede videoer der viser FSD, Cruise, Waymo osv..... også det at bruge klip fra O'dowd som tydeligvis ikke er neutral og har gjort sig umage med editeringen således at vi ikke skal kunne få indblik i hvordan de snyder bilen til at kører ind i dukker, indkøbsvogne m.m.
Jeg mangler egentlig bare kildekritik, vi har nu flere gange diskutteret det ovenstående klip, og det ser da også ud til at flertallet herinde er enige om at vi ikke kan bruge O'dowds klip til noget eftersom de tydeligvis ikke bliver fremvist på et neutralt grundlag. Så at snakke om selvkørende biler ud fra disse klip giver ingen mening.
Hvis der er fokus på et vigtigt teknologisk problem, så er det værd at diskutere her.
Er det sikkert, at sende beta-versioner af software ud i trafikken?
Det er ikke et ligegyldigt spørgsmål. Der er utallige eksempler på ingeniør-løsninger, der viste sig, i bedste fald, at være rigrig dumme - i værste fald katastrofale.
Er 'Move Fast and Break Things' løsningen?
Heldigvis er der andre medier, som også er interesseret i det spørgsmål:
https://www.nytimes.com/2022/05/27/us/politics/california-senate-candidate-odowd-musk.html
https://www.washingtonpost.com/technology/2022/11/13/dan-odowd-challenges-tesla-musk/
https://edition.cnn.com/2023/02/12/business/super-bowl-ad-tesla-full-self-driving/index.html
Mener Mobileeye var leverrandør til Tesla indtil 2015. Så gik de hvert til sit. Ikke verdens pæneste skilsmisse. Tænker der i hvert fald bør udøves kildekritik…
Helt enig! Dybt useriøst at en motorblogger på ing.dk igen kommer med så ugennemtænkt indlæg - håber ikke mit månedlige kontingent financierer vedkommendes tidsforbrug.. Kig nu lige på (de få) billeder i reklamen der viser skærmen indefra.. hvis du giver bilen gas mens FSD er aktiveret har brugerinput >> AI, hvilket fremgår at en advarsel i bunden af skærmen til venstre.. Seriøst…
Det også her at laaaaangt den meste af daglig pendler bil trafik, bruger laaaaaangt det meste af deres tid og kilometer.Motorveje, landeveje, omfartsveje og større boulevarder: Ja, indre by: nej.
Husker tilbage på mine helt igennem gennemsnitlige bil pendler rute fra Bispeengbuen i kbh til høje Tåstrup. 22 kilometer "soul crushing traffic" hver vej.
Jeg ville højst skulle bruge et par minutter i hver ende hvor jeg selv skulle styre bilen.
Hvor jeg ville have været glad for at overvære en robot lære at køre i sådan et miljø, i stedet for at betragte det samme forudsigelige scenarie udspille sig hver eneste dag .
Fsd er lige hvad jeg skal bruge for at gøre bil køre ture behagelige for mig.
Motorveje, landeveje, omfartsveje og større boulevarder: Ja, indre by: nej.
Præcis min pointe...
Er man i tvivl om hvem der har ansvaret? Er det bilen eller Dan der kører "barnet" over?
Teksten er taget fra FSD Beta v. 11 release notes.
Full Self-Driving is in early limited access Beta and must be used with additional caution. It may do the wrong thing at the worst time, <strong>so you must always keep your hands on the wheel and pay extra attention to the road</strong>. Do not become complacent. When Full Self-Driving is enabled your vehicle will make lane changes off highway, select forks to follow your navigation route, navigate around other vehicles and objects, and make left and right turns. <strong>Use Full Self-Driving in limited Beta only if you will pay constant attention to the road, and be prepared to act immediately, especially around blind corners, crossing intersections, and in narrow driving situations</strong>.
Hvis vi fik muligheden, skulle FSD så slippes løs i Danmark?
Jeg kender et par udviklere der sidder med fingrene i materien og de siger begge, efter at have kigget lidt på streetview, at det kan vi glemme alt om i mange, mange år, med mindre bilproducenterne lykkes med at vælte hele ansvaret over på den der sidder i føresædet.
Motorveje, landeveje, omfartsveje og større boulevarder: Ja, indre by: nej.
Helt i orden, det har vi også gjort nogle gange herinde. Det er desværre lidt svært at diskuttere FSD, Waymo og Cruise når ingen af os har haft muligheden for at sidde bag rattet.
Derfor bliver det hurtigt for og imod på et meget vakkelvorn grundlag. En del skriver "hvad skal jeg med en selvkørende bil, jeg kan da køre selv!", "Det bliver alrid til noget..." og I den anden boldgade har vi folk som ser selvkørende biler være lige rundt om hjørnet. Både Waymo og Cruise kører uden chauførere i flere amerikanske byer, det er dog ikke helt uden problemer ligesom Teslas FSD også har dens fejl og mangler.
Jeg håber stadig på at det snart bliver muligt at prøve FSD et eller andet sted i Europa så vi kan få nogle lidt mere kvalificerede snakke om hvad der virker godt og dårlig. Det er enormt svært at se på en video hvordan microbevælgelser (acceleration, jerk osv.) påvirker kørslen.
Som jeg husker det med Youtube videoen så blev den taget ned af Dan O'down' team på baggrund af youtube regel omkring "skade på børn". Det er på trods af at langt vildere videoer for lov til at ligge på Youtube i årevis.
"Skal O'dowd virkelig have taletid på ingeniøren?"
På Motorbloggen stiller jeg ofte spørgsmål - og der kommer ofte gode svar fra alle jer læsere.
Spørgsmålet her er: Har O'Dowd fat i noget? Er systemet så sikkert som Tesla påstår?
Måske er O'Dowd konspirationsteoretiker og måske er han fuld af løgn.
Jeg erkender, at Beta-testere har vist, at Tesla-bilerne sagtens kan stoppe for børn og barnevogne. På Elektrc tordner Fred Lambert mod O'Dowd.
Det er for øvrigt sjovt, at Youtube har taget den video ned, der skulle vise, at FSD virker fint, mens Twitter har beholdt den online.
Men lad os i det mindste diskutere udfordringerne med autonome biler og særligt FDS.
Hvis vi fik muligheden, skulle FSD så slippes løs i Danmark?
Jeg deler din undren..
Og bare lige for at sætte en kommentar på noget af det andet - man kan ikke sammenligne den danske version af FSD med den version som bruges i USA.
Det er blevet bevist flere gange at Dan O'dowd synder med sine tests, det er også grunden til at alle hans videoer er taget med 480p opløsning så man netop ikke kan se hvorvidt bilen rent faktisk kører i FSD eller manuelt styring. Også teksten nederst til venstre kan ikke læses der er her bilen vil fortælle chauføren hvis man misbruger systemet. Det kunne f.eks. være at holde foden på speederen så man er sikker på bilen ret faktisk kører sine dukker ned....
Trist fupmagere for taletid på et forum for ingeniører.
Her er en udførlig test af systemerne fra en flok Youtubere:
<script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>Does Tesla Full Self-Driving Beta really run over kids?
— Whole Mars Catalog (@WholeMarsBlog) August 14, 2022
Thanks to @MinimalDuck and @_tadpark for your help on this! @elonmusk @RealDanODowdhttps://t.co/A1Pq1LkDyQ pic.twitter.com/bR19cVkWcL
"hvis en person køres ned med fuldt overlæg"
Hmm!
Er en computer i stand til at gøre noget med "fuldt overlæg"?
Her er Tesla statistik over antal mio miles før uheld hhv med og uden ADAS:https://www.tesla.com/da_dk/VehicleSafetyReport
Den siger da noget om hvad der er bedst - med eller uden ADAS
Her er videoerne fra Euro ncap testen af model 3. Se de sidste 25 % for at se den reagere på cyklister og fodgængere:https://youtu.be/cMiZa3HgRVE
Nu er man vist ved at løbe med en and. Min Tesla har ikke udvist besynderlig adfærd overfor cyklister der står op i pedalerne.Hvis den ikke kan klare noget så simpelt som en cykelist der opføre sig som en cykelist så viser det jo med tydelighed at systemerne ikke høre til andre steder end i lukkede miljøer hvor omverden kun er den systemerne kan håndtere.
Lad os få fakta på bordet før fjeren bliver til fem høns.
Hvis den ikke kan klare noget så simpelt som en cykelist der opføre sig som en cykelist så viser det jo med tydelighed at systemerne ikke høre til andre steder end i lukkede miljøer hvor omverden kun er den systemerne kan håndtere.
Dett lyder flot med selvkørende biler men om jeg så bliver 100 år mere så kommer der ikke selvkørende biler som kan køre hvor og når som helst uden indblanding der til er virkeligheden for komplex. Alene den data der skal til for en bil ved om den kan køre på et bestemtt sted og holde det opdateret er om ikke umuligt så meget langt ude i fremtiden for hvordan skal den kende den skov vej jeg lige har lavet?
Så lad os holde os til hjælpe systemer som kan gøre føren endnu mere uopmærksom og sløv især under længere tids brug. Nå ja og så kræve at betasoftware ikke bruges uden for lukkede og 100% kontrolbare miljøer.
Desværre er det i USA tilladt at svine dine konkurrenter til for at fremme dine muligheder. Det er også derfor at amerikanske valg er rugekasse for diverse konspirationer og rygter. Det kan betale sig at svine sin modstander til for ingen røg uden.....
En måde at anskue effektiviteten af diverse hjælpesystemer til biler, er at se på hvor mange uheld bilen kommer i, hvor skylden er førerens. Systemere er jo ikke selvkørende, men ADAS
Som jeg erindrer det ligger Tesla lunt i den lave ende af statistikken med uheld/kørt km, jeg erindrer noget med en faktor 10 lavere end gns. Jeg kan ikke lige finde statistikken, men den er opgjort i flere år.
Hvis du skal set Netflix under kørsel kræver det Level 5.
AutoSteer og AutoPilot er Level 1. FSD er Level 2. Robotaxa er Level 5.
...en bil med FSD slået til:
https://twitter.com/YoumotherFUDer/status/1625389238136225792