Uden rat og pedaler: Et skridt nærmere en ægte robottaxi på el


I flere amerikanske byer er der forsøg med robottaxier, der kører i afgrænsede områder.
Ens for dem alle er, at de har en sikkerhedschauffør med om bord, der kan tage over, hvis der skulle opstå en situation, som bilen ikke kan håndtere.
Men den ordning kan snart være på vej ud.
Drømmen om en 100 procent førerløs taxi er nemlig kommet et skridt nærmere med en helt ny model, der er udviklet i et samarbejde mellem Alphabets datterselskab Waymo og kinesiske Zeekr, der er ejet af bilproducenten Geely.
- emailE-mail
- linkKopier link

Fortsæt din læsning
- Sortér efter chevron_right
- Trådet debat
Men det understreger jo også samtidigt min pointe om, at en Tesla-ejer, der behandler sin bil, som om den er “nærmest selvkørende”, er til fare for sig selv og andre trafikanter.
Her er det måske på sin plads at påpege, at flertallet af biler med avancerede lane assist systemer, ikke længere er fremstillet af Tesla.
Det gamle lane assist fra min 2016 VW Golf GTE er så dårligt, at det er umuligt at behandle bilen som "nærmest selvkørende". Men det har ændret sig for længst med de moderne systemer de laver nu.
Ok. Det overrasker mig, og så må jeg jo bare acceptere, at det kan være EU’s (eller UNECE’s?) skyld.
Men det understreger jo også samtidigt min pointe om, at en Tesla-ejer, der behandler sin bil, som om den er “nærmest selvkørende”, er til fare for sig selv og andre trafikanter.
Hvis bilen ikke MÅ fortælle ham, at den om lidt vil køre ind i et objekt, så burde det jo være tydeligt for enhver, at føreren pinedød er nødt til at tage alvorligt, at bilen føres af HAM og ikke af bilen selv.
Hævder du, at EU har frabedt sig, at bilen gør opmærksom på, at den er på vej ind i en situation, som den ikke kan klare?
Generaliseret og som en del af lane assist, ja. Som en del af kollisionen avoidance, nej, men så er det også noget der er aktivt når bilen føres uden at lane assist er aktivt og er dermed et system der skal kunne vurdere om du er på vej ud i en umulig situation.
Logikken er at lane assist ikke må udvikles til at være mere end lane assist. Derfor er det præcist reguleret hvordan den skal fungere. Der er situationer den skal advare om og situationer som betragtes udenfor scope. Eksempelvis manglende linjer er indenfor scope. Fremmedobjekter udenfor men til gengæld indenfor scope af kollision avoidance.
Med det nye EU level 3 er formuleringerne åbnet op men det gælder kun hvis bilen er godkendt efter de regler og det er Tesla desværre ikke. Jeg er bekymret for at Tesla ikke har prioriteret at implementere de nye muligheder i EU, så måske vi kommer til at vente længe.
Hævder du, at EU har frabedt sig, at bilen gør opmærksom på, at den er på vej ind i en situation, som den ikke kan klare?
Jeg bad såmænd blot om et lille hint af selverkendelse hos bilen i de situationer, den ikke kan overskue.
Det har EU pænt frabedt sig. Kun lane keeping systemer er tilladt. Når systemerne nogle gange reagerer alligevel, så er det enten en gradbøjning af reglerne eller antikollisionssystemet.
Min TM3 kunne eksempelvis engang stoppe ved et T kryds i stedet for bare at køre direkte ud over afkanten. Men det blev påtalt, så nu nøjes den med at sætte hastigheden ned til cirka 30 km/t.
Jeg vil kende forskellen mellem Tesla og andre biler med adaptiv fartpilot og autostyring
Det vil jeg skam også men sålænge det kun er Tesla der offentliggør deres ulykkes data så kan vi ikke sammenligne med andre.
Nis Schmidt og Baldur Norddahl, #20 og #21:
Det var ikke kravene til level 3, jeg refererede til. Det bør være indlysende, at Teslas nuværende highway stack er milevidt fra level 3.
Jeg bad såmænd blot om et lille hint af selverkendelse hos bilen i de situationer, den ikke kan overskue. Noget, som med tiden måske ville kunne udvikle sig til at være godt nok til level 3.
Faktum er, at hvis jeg er på vej hen mod en forhindring, som rager delvist ind i min vejbane, er bilen pisseligeglad. Den vil holde på, lige indtil vi påkører forhindringen, og den vil ikke sige et pip, inden det sker.
Absolut ingen erkendelse af, at “den forhindring burde vi måske gøre føreren opmærksom på, at vi ikke selv kan køre uden om, fordi vi hellere vil holde vores planlagte plads mellem de hvide linier”.
Sjovt nok reagerer bilen dog kraftigt på forhindringer, der IKKE rager ind i bilens kørebane. Igen siger den ikke et pip, inden man når hen til forhindringen, men når man er ud for forhindringen råber bilen “VI SKAL DØØØØØØØ!i!i!i!”
Det er et fint level 2-system. Jeg har ingen problemer med systemet vurderet som level 2-system.
Men det gør mig edderspændt rasende, at andre Tesla-ejere, som jeg risikerer at møde ude i trafikken, har en tro på, at systemet er meget mere end level 2. Det er min og andres og deres egen sikkerhed, de sætter på spil med den holdning.
Martin Hansen, oplysningen om 8-10x er blevet gentaget ofte. Og jeg har altid undret mig over, hvor ukritisk den fremsættes.
Jeg er revnende ligeglad med, om der er en faktor 8-10 til forskel på Tesla og gennemsnitsbilen.
Jeg vil kende forskellen mellem Tesla og andre biler med adaptiv fartpilot og autostyring.
Du virker helt besat af Tesla, Glenn. Er du ok?
Jeg formoder at de fleste elbiler i USA og mange andre lander er Teslaer.
Jeg formoder at de fleste selvkørende elbiler i USA og mange andre lander er Teslaer.
Det kan være grunden til, at de artikler jeg har fundet om selvkørende biler - mest har vedrørt selvkørende Teslaer.
Havde du været mere ”kvik” havde du rettet ”skytset” mod de journalister som skrev artiklerne - og deres kilder?
Istedet for kun at se på overskrifter og Tesla ulykker. Så vil jeg anbefale dig at se på statistikker i stedet for. Alle sikkerhedstest af Tesla biler viser at de er i en kategori for sig selv. Hvad end det er EuroNCAP, NHSTA eller fra Kina så ligger Tesla i toppen.
Bare fordi medierne er besat af Tesla og nægter at skrive om andre ulykker så sker de stadig. Tesla udgiver også deres eget ulykke data her viser det sig at Teslaer kører galt 8-10 gange mindre end gennemsnittet i USA. Desværre kan vi ikke helt sammenligne de data da vi mangler info på lane keeping systemer fra andre producenter.
Kan du remse kilder op?
Frasen ”Teslaer kører galt 8-10 gange mindre end gennemsnittet i USA” er meget upræcis - mener du en andre selvkørende biler? - mener du end andre selvkørende elbiler? - mener du end alle andre biler? - mener du end alle andre elbiler? - mener du end alle andre fartøjer i trafikken?
Der er dog intet der tyder på at Tesla har problemer med automatikken som de andre ikke også har.
Hvis du med ovenstående sætning mener maskinlæring (bullshit markedsført som ”kunstig intelligens”), så giver jeg dig ret.
Du virker helt besat af Tesla, Glenn. Er du ok?
Istedet for kun at se på overskrifter og Tesla ulykker. Så vil jeg anbefale dig at se på statistikker i stedet for. Alle sikkerhedstest af Tesla biler viser at de er i en kategori for sig selv. Hvad end det er EuroNCAP, NHSTA eller fra Kina så ligger Tesla i toppen.
Bare fordi medierne er besat af Tesla og nægter at skrive om andre ulykker så sker de stadig. Tesla udgiver også deres eget ulykke data her viser det sig at Teslaer kører galt 8-10 gange mindre end gennemsnittet i USA. Desværre kan vi ikke helt sammenligne de data da vi mangler info på lane keeping systemer fra andre producenter.
Der er dog intet der tyder på at Tesla har problemer med automatikken som de andre ikke også har.
Spild af spalteplads og energi. Endnu engang har vi en producent der lover guld og grønne skove, mens virkeligheden nok stadig er den samme - i hvertfald her i Danmark - nemlig at det har meget meget lange udsigter med selvkørende biler, for slet ikke at snakke taxier, som jo qua deres store eksponering næppe bliver de første selvkørende på gaden.
10 sec ved 130km/t, kvæver vel nærmest integreret "krystalkugle" (at bilen er "synsk"), men i det mindste burde det været nok at undgå at banke ind i en stationær forhindring?
Det betyder at bilen effektivt må være level 4 i implementering. På 10 sekunder kan den også nå at stoppe, så det kommer ikke til at ske at den ser noget ude i horisonten og på baggrund af det giver dig kontrollen. Hvis det er ting som at motorvejen ophører så er det allerede kendt fra kortdetaljerne.
Det kan derimod ske at den konstatere at vejret er blevet for dårligt til at systemet sikkert kan fortsætte. Det kan måske godt fortsætte i 10 sekunder under sådanne forhold, men så skal du også overtage. Og ellers parkerer den bilen.
Det er også tilladt at den "forlænger" de 10 sekunder ved at sætte farten ned. Hvis eksempelvis vi nærmer os et færdselsuheld, som den ikke kan passere. Så betyder det blot at den kommer til at stoppe ved det uheld i stedet for at passere det.
Kravene i det nye EU "level 3" system, der tillader autonomt kørsel op til 130 km/t på motorvej fra 1. januar 2023, er at du skal have et varsel på 10 sekunder.
10 sec ved 130km/t, kvæver vel nærmest integreret "krystalkugle" (at bilen er "synsk"), men i det mindste burde det været nok at undgå at banke ind i en stationær forhindring?
Baldur, jeg vil ikke have en million km mellem fejl. Jeg vil have en bil med selverkendelse, så den selv forstår, hvornår dens evner ikke rækker. Så må den gerne bede mig om at tage over.
Kravene i det nye EU "level 3" system, der tillader autonomt kørsel op til 130 km/t på motorvej fra 1. januar 2023, er at du skal have et varsel på 10 sekunder. Men hvis du ikke reagerer, så må bilen ikke køre galt men i stedet parkere i nødsporet.
Din Tesla har en tidlig implementering af dette. Den forsøger med lidt selverkendelse, eksempelvis beder den dig om at overtage hvis du kører ind i et skybrud. Og hvis du ikke overtager, så vil den aktivere nødblink og parkere bilen. Dog ikke i nødsporet.
Men vi kan hurtigt blive enige om at den 4 år gamle highway stack ikke er god nok til EU level 3. Desværre virker det til at Tesla pt. er ligeglade. Vi kommer nok til at skifte til Mercedes hvis du vil køre EU level 3 i Tyskland fra årsskiftet.
Til #13 Baldur, diskussionen gik ikke på FSD Beta (altså bortset fra, at den gamle FSD vist egentlig også er beta).</p>
<p>Thor hævdede, at den 4 år gamle highway stack gør det godt. Det var det, jeg kommenterede på.
Ja ok jeg er ikke enig i at den 4 år gamle highway stack er noget at råbe hurra for. Det er dog den der lige har vundet prisen som sikreste bil hos Euro NCAP. Så den er trods alt rimelig god til at stoppe kollisioner med bløde trafikkanter og utilsigtede vognbaneskift etc.
At Tesla kalder deres software permanent "beta" er nok noget de burde have et hak i tuden for. Det er ikke beta. Det er gået igennem typegodkendelse og er eksempelvis testet af Euro NCAP - så opfylder det på ingen måde præmissen for at være "beta". Det er bare Teslas forsøg på at kunne affærdige kundeklager med at det er også "beta". Men selv det er forfejlet, da der på ingen måde angives at man kun køber en "beta" når man bestiller bilen.
Der er ca. 830.000 elbiler i USA:
June 9, 2022, consumerreports.org: Safety Agency Expands Tesla Autopilot Investigation. The scope of the NHTSA investigation covers about 830,000 electric cars that might have an increased crash risk: Citat: "... The scope of the ongoing investigation covers about 830,000 Teslas from the 2014 to 2022 model years, including the four current vehicles: Model 3, Model Y, Model S, and Model X. ..."
Jeg kan ikke lige finde hvor mange km de (færre end?) 830.000 Teslaer har kørt i NHTSA dataindsamlingsperioden 2021-2022.
Til #13 Baldur, diskussionen gik ikke på FSD Beta (altså bortset fra, at den gamle FSD vist egentlig også er beta).
Thor hævdede, at den 4 år gamle highway stack gør det godt. Det var det, jeg kommenterede på.
Baldur, jeg vil ikke have en million km mellem fejl. Jeg vil have en bil med selverkendelse, så den selv forstår, hvornår dens evner ikke rækker. Så må den gerne bede mig om at tage over.
Og når den så er blevet så dygtig, at den tilstrækkeligt sjældent beder mig om at tage over, så må den gerne selv få ansvaret. Skulle den så med nogle 100.000 kilometers mellemrum komme i situationer, hvor den får behov for at nogen tager over, og “nogen” ikke er der, må den jo ringe efter vejhjælp.
Men det er ikke tilfældet for min Tesla. Min Tesla lider alvorligt under Dunning-Krüger-effekten.
Jeg har fundet data fra NHTSA:
June 2022, the National Highway Traffic Safety Administration (NHTSA): Summary Report: Standing General Order on Crash Reporting for Automated Driving Systems: Citat: "... 130 ADS crashes reported from July 2021 to May 15, 2022. ... [een fra Tesla] ...."
June 2022, the National Highway Traffic Safety Administration (NHTSA): Summary Report: Standing General Order on Crash Reporting for Level 2 Advanced Driver Assistance Systems: Citat: "... 392 Level 2 ADAS crashes were reported as of May 15, 2022. ... [273 fra Tesla] ...."
Hvis FSD ikke ændrer på den opførsel, jeg ser på Autopilot, eftersom FSD-funktionerne i den nuværende version blot er ekstra funktioner, der er klistret oven på Autopilot, så er det jo ikke en gyldig indvending at sige “FSD er ikke Autopilot”.
Det vi i Danmark har adgang til, uanset om man har købt FSD pakken eller ej, er ikke FSD Beta. FSD Beta er et helt andet system, der er lavet om så grundlæggende at vi ikke rigtig kan bruge sammenligning med den gamle kode vi kører på her til lands.
Deres/hans missionsmål er fuldt ud legitimt
Glenn din henvisning til video af Dawn om at Teslas Autopilot ikke stopper for børn er bestemt ikke legitimt. Man kan se i videoerne at systemet advarer om at det ikke bremser fordi han holder foden på speederen! Det er med andre rent fake og andre har da gentaget "testen" og påvist at systemet under de givne forhold faktisk stopper.
Det kan også nævnes at Teslas system netop er blevet testet igen af Euro NCAP hvor det fik 8 ud af 9 for gående og 9 ud af 9 for cyklende i dets evne at stoppe og undgå kollision.
Her viser Euro NCAP at bilen stopper for både voksne og børn:
Thor, læste du min sidste sætning?
Hvis FSD ikke ændrer på den opførsel, jeg ser på Autopilot, eftersom FSD-funktionerne i den nuværende version blot er ekstra funktioner, der er klistret oven på Autopilot, så er det jo ikke en gyldig indvending at sige “FSD er ikke Autopilot”.
Alligevel er Tesla langt fra at være 100 procent selvkørende og den seneste udvikling er, at Tesla bliver undersøgt af de amerikanske myndigheder for at vildledt kunder med, hvor ‘selvkørende’ deres basis-system, kaldet Autopilot, egentlig er.
Her er nyeste video fra "Dirty Tesla" som viser hvor selvkørende den nyeste version af FSD egentlig er:
https://www.youtube.com/watch?v=2y3kwZ_VdRU
Svaret er at den er temmelig selvkørende. Det kan godt være at den ikke er klar til at blive sluppet løs uden en vågen chauffør men det ændrer ikke på at den efterhånden kører temmeligt godt bil.
Og så er der naturligvis dem der nu råber MEN der skal være X millioner km mellem "fejl" - og ja, det skal der. Hvis systemet kunne det, så var den jo færdig. Den er ikke færdig, det er der ingen der har påstået. Det virker lidt til at vi skal læse artikler om at det er umuligt (eller citat "langt fra at være selvkørende") fordi systemet ikke er færdigt lige indtil dagen, hvor den pludselig er færdig!
Svar på:
Er enig - men AP er jo netop ikke FSD…</p>
<p>Og ja, kører Tesla med standard AP, of nej, det er sku ikke perfekt - og det er FSD heller ikke (lige været i USA og prøvet det.)</p>
<p>Men det er godt på vej! Hvilket er min point ?
Hej Thor
Vidste du at FSD står for Full Self-Driving?
Er enig - men AP er jo netop ikke FSD…
Highway stack i DK er vel 5+ år gammelt software pt.
Og ja, kører Tesla med standard AP, of nej, det er sku ikke perfekt - og det er FSD heller ikke (lige været i USA og prøvet det.)
Men det er godt på vej! Hvilket er min point ?
Kører du selv i en Tesla? Det håber jeg ikke, hvis du er så ukritisk overfor highway stack i den nuværende udgave. Jeg kører i en Tesla, og den er rendyrket level 2.
Den er fuldstændigt ude af stand til at se, at den ikke vil kunne klare en situation. Man overlever kun, hvis man selv griber ind. Rager et andet køretøj lidt ind i dens kørebane, er den totalt ligeglad. Den fortsætter bare. Kommer den frem til en tilkørsel, fortsætter den bare, for den ved ikke, hvordan den fletter med de biler, der er på vej ned på motorvejen.
Ovenstående er med Autopilot uden FSD. Men så vidt jeg ved, er der ikke noget i tillægsfunktionerne i FSD, der ændrer ovenstående opførsel.
Er det et svar?? ?
Så fordi hans meget løst formulerede mål iflg. Dig er legitime skal vi ikke belemre os med at undersøge hans påstande.. (eller bruge 2 min på at checke om andre faktisk allerede har brugt tid på det.)
Og “follow the money” er naturligvis også sat ud af spillet ?
Svar på:
At du refererer til dawn project (som er en konkurrent til Tesla mht. software) gør, at jeg hurtigt scroller over alt andet du henviser til..
Deres/hans missionsmål er fuldt ud legitimt - der er alt for meget software med for mange kritiske fejl i bl.a. verdens kritiske infrastruktur:
eas.caltech.edu: From Debugging to Integrity in Coding: Citat: "...ENGenious sat down with Dan O’Dowd (BS ’76, engineering) and his son Richard O’Dowd (BS ’13, computer science) to discuss their Caltech journeys, their dedication to computer science, and the field’s impact on the world...."
dawnproject.com: Citat: "... The Dawn Project was founded by Dan O’Dowd, the world’s leading expert in creating software that never fails and can’t be hacked. Dan created the secure operating systems for projects including Boeing’s 787s, Lockheed Martin’s F-35 Fighter Jets, the Boeing B1-B Intercontinental Nuclear Bomber, and NASA’s Orion Crew Exploration Vehicle.
Dan has been a pioneer of making safety-critical software systems unhackable since his days at the California Institute of Technology (Caltech). Dan graduated from Caltech in 1976 with a Bachelors of Science in Engineering. Now Dan is a recipient of the Caltech Distinguished Alumni Award, which is the highest honorary which Caltech bestows upon a graduate.
Dan’s expertise in creating the most secure operating systems in the world led him to found The Dawn Project, which is dedicated to making computers truly safe for humanity. ..."
At du refererer til dawn project (som er en konkurrent til Tesla mht. software) gør, at jeg hurtigt scroller over alt andet du henviser til..
Der er utallige beviser på, at deres “kører barn over” er i scene sat, må jeg appellere til du bruger 2 min på kildekritik?
En mere:
October 17, 2022 , cnn: Tesla Autopilot’s safety questioned after latest fatal motorcycle crash: Citat: "...Tesla’s Autopilot was involved in a third fatal motorcycle crash this summer, raising questions about the driver-assist system’s ability to operate safely...“If it can’t see a motorcycle, can it see a pedestrian? Can it see a small child? Can it see an animal?”..."
Svar på:
En masse konkurrenter, medier ol. Har ekstremt travlt med at kritisere Tesla for deres FSD men kan alligevel kun finde forsvindende lidt fejl og mangler..
Nå, synes du det?:
9 Aug 2022, theregister.com: Tesla Full Self-Driving fails to notice child-sized objects in testing. Campaign group Dawn Project results calculated from small sample size, test done without hands on the wheel: Citat: "... The latest version of Tesla's Full Self-Driving (FSD) beta has a bit of a kink: it doesn't appear to notice child-sized objects in its path, according to a campaign group. ... Traveling at approximately 25mph (about 40kph), the Tesla hit the dummy each time. Of the results, the Dawn Project said 100 yards of distance is more than enough for a human driver to notice a child, stating: "Tesla's Full Self-Driving software fails this simple and safety critical test repeatedly, with potentially deadly results."…"
211103, eb.dk: Misforstod bollereklame. 'Smarte' biler med intelligent hastighedsassistent kunne ikke kende forskel på hastighedstavle og reklame for bagværk: Citat: "... Det gik helt i kage, da den norske udgave af Vejdirektoratet for nylig testede fire forskellige bilmodeller med indbygget hastighedsassistent (ISA). ... Når biler fejltolker hastigheden langs vejen, kan der opstå farlige situationer i trafikken, vurderer Statens vegvesen. ..."
4. okt 2018, ing.dk: Værd at vide: Elefanten i rummet: Citat: "... Kunstig intelligens kan have svært ved at finde hoved og snabel i billeder med usædvanlige motiver, viser ny forskning. ‘Elefanten i rummet’ er en engelsk talemåde for et indlysende problem, som ingen har lyst til at tage sig af, endsige tale om. 'Når det tages helt bogstaveligt, viser det også, at den dybe læring [deep learning], som udnyttes inden for mange former for kunstig intelligens, slet ikke er så dyb endda. ..."
At Tesla er “langt fra” at have selvkørende biler er vist et holdningsspørgsmål.. nogen vil mene de er tæt på - især med v11 der ruller ud i disse dage.. videoer af deres highway stack er så kedelige at de bliver fast forwarded på YouTube - og det er inden v11! (Dvs. 4 år gammelt software)
En masse konkurrenter, medier ol. Har ekstremt travlt med at kritisere Tesla for deres FSD men kan alligevel kun finde forsvindende lidt fejl og mangler..
Selvkørende biler med geo fencing, ekstremt dyrt hardware osv. har imo ikke den store chance for succes.. bliver alt for omstændigt i etablering og drift.