Tyskland om selvkørende bilulykker: Systemet skal vælge den løsning, der skader færrest mennesker
more_vert
close

Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og du accepterer, at Teknologiens Mediehus og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, job og tilbud m.m. via telefon og e-mail. I nyhedsbreve, e-mails fra Teknologiens Mediehus kan der forefindes markedsføring fra samarbejdspartnere.

Tyskland om selvkørende bilulykker: Systemet skal vælge den løsning, der skader færrest mennesker

Drive PX 2 er en hardwareplatform fra Nvidia for selvkørende biler. Illustration: Nvidia

Før selvkørende biler kan slippes løs på vejene, skal det juridiske være klart: Hvem har ansvaret, hvis bilen kører galt?

Tyskland er blandt de lande, som er længst fremme med håndteringen af dette spørgsmål.

Nu har man også udarbejdet et sæt etiske retningslinjer, som selvkørende biler skal følge. Gennemgående er det, at mennesker altid skal prioriteres over ejendom og dyr.

Det tyske transportministerium præsenterede retningslinjerne i sidste uge.

Retningslinjerne kommer, efter at et etikudvalg præsenterede en rapport om autonome køretøjer tidligere i år.

Selvkørende biler skal programmeres, således at de foretager de rigtige valg, og retningslinjerne er de første af slagsen i verden.

Udvalget kom frem til 20 retningslinjer. De tyske myndigheder skal nu implementere dem i lovgivningen.

Det vigtigste mål med helt eller delvist automatiserede trafiksystemer er ifølge udvalget at forbedre sikkerheden i trafikken for alle trafikanter. Det er en etisk nødvendighed at indføre systemer med en høj grad af automation, hvis det potentielt kan reducere skader.

Skadesreduktion er vigtigst

Det vigtigste mål, som skal komme før alle andre, er at reducere ulykker. Udvalget mener, at automatiserede systemer kun kan retfærdiggøres, hvis de leder til en skadesreduktion sammenlignet med kørsel, hvor føreren af bilen er et menneske.

Fords udviklingskøretøj til selvkørende biler. Illustration: Ford Motor Company

Udvalget mener, at risikovurderinger derfor skal have et positivt udfald, samtidig med at risikoen for ulykker, som det teknisk er umuligt at undgå, ikke skal forhindre, at selvkørende biler tages i brug.

Rapporten giver ikke eksempler på, hvilke ulykker dette kunne være, men det kunne for eksempel være, at nogen pludselig bevæger sig ud på vejen direkte foran køretøjet, eller at man bliver påkørt bagfra.

Teknologien skal udvikles på en sådan måde, at køretøjet undgår ulykker, når det er muligt, og skal have en udformning, så man som udgangspunkt undgår, at kritiske situationer opstår.

Alle tekniske muligheder bør udnyttes for at undgå ulykker inklusiv begrænsning af, hvor bilerne må køre, så det kun bliver i områder, hvor trafikken kan kontrolleres, brugen af sensorer og bremsesystemer, udnyttelse af muligheden for at sende signaler om fare til alle involverede samt anlæggelsen af veje på en måde, så faresituationer undgås, skriver udvalget.

Afgørelser baseret på personkarakteristik forbudt

I en situation, hvor en ulykke er uundgåelig, skal beskyttelse af menneskeliv altid prioriteres højere end ejendom. Hvis det er teknisk muligt, skal systemerne programmeres således, at de accepterer skader på objekter, hvis det forhindrer, at en person skades.

Hvis en ulykke er uundgåelig, er det ikke tilladt at tage personkarakteristikker såsom alder, køn, fysisk eller mental tilstand i betragtning, men systemet skal kunne afgøre, hvilket valg der vil skade færrest muligt mennesker.

Mennesket har ikke længere ansvaret for kørslen, når det automatiserede system overtager. I de tilfælde skal det juridiske ansvar lægges hos producenten og operatøren af systemet.

Det er nødvendigt klart at definere og identificere, hvem der har ansvaret for kørslen i alle situationer; mennesket eller maskinen.

Afgivelse af data bør være frivilligt

Et automatiseret system kan ikke retfærdiggøres, hvis mulige hackerangreb kan føre til ulykker, som skader tilliden til vejtrafik.

Selvkørende biler skal tage hensyn til hele trafikbilledet og undgå personskader. Illustration: Waymo

Forretningsmodeller, som tager førerdata i brug, skal have tilladelse fra føreren til at indsamle disse data. Der skal eksistere et alternativ til dem, som ikke ønsker at afgive disse data. Altså kan du ikke udelukkes fra tjenesten, hvis du ikke er villig til at afgive personlig information.

Software og teknologi i køretøjer med en høj grad af automatisering skal være udformet på en sådan måde, at behovet for hurtigt at kræve, at føreren tager over, praktisk talt ikke findes.

Korrekt brug af automatiserede køresystemer bør være en del af køreundervisningen.

Udvalget bestod af 14 videnskabsfolk og eksperter inden for etik, lov og ret samt teknologi.

Tyske myndigheder har tidligere præsenteret retningslinjer for tests af selvkørende biler på landets veje. Indtil videre kræver de, at der til enhver tid skal sidde en fører bag rattet, og at denne person skal være klar til at overtage styringen, så snart bilen beder om det.

Det påpeges også, at det er bilproducenten, der har ansvaret, hvis en ulykke indtræffer, når bilen kører autonomt.

sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

Det påpeges også, at det er bilproducenten, der har ansvaret, hvis en ulykke indtræffer, når bilen kører autonomt.

Så kommer der godt nok gang i svingdøren til hjørnekontoret, når høvdingen skal ind og ruske trammer!

  • 2
  • 2

Nej, men netop ansvarplaceringen er jo et væsentligt spørgsmål. Selvfølgelig kan man placere ansvaret hos bilproducenten, som lige så naturligt vil søge forsikring for denne ansvarsbyrde. Hvis omkostningerne for at forsikre sig mod denne ansvarsbyrde bliver for høje - og det er menneskeliv vi taler om her, er det (endnu) en alvorlig forhindring for fuldt autonome bilers udbredelse.

  • 0
  • 0

For det første er jeg lidt i tvivl om hvad retningslinierne faktisk indeholder.

Titlen angiver: "Systemet skal vælge den løsning, der skader færrest mennesker"
I artiklen står der dog en noget mildere formulering: "systemet skal kunne afgøre, hvilket valg der vil skade færrest muligt mennesker"

Der er ret stor forskel på at kunne regne antal tilskadekomne ud og at man skal vælge det udfald med færrest tilskadekomne.

Hvis retningslinierne faktisk kræver, at systemet ubetinget skal vælge den løsning, der skader færrest mennesker, kan dette i praksis vise sig at være en dødsdom for uskyldige mennesker. Et eksempel:

To fulde mennesker springer umotiveret ud på vejen, hvor en bil kommer i høj fart. På fortovet går en mand. Bilen kan ikke nå at bremse, og vil enten pløje de to ned eller køre op på fortovet og køre manden ned.

Jeg kan ikke forestille mig, at mange ville finde det etisk i denne situation at vælge løsningen med færrest tilskadekomne.

De faktiske retningslinier er forhåbentligt mere nuancerede, end de er gengivet her.

  • 4
  • 0

"Et automatiseret system kan ikke retfærdiggøres, hvis mulige hackerangreb kan føre til ulykker, som skader tilliden til vejtrafik."

Hackerangreb kan ikke bare udelukkes på forhånd. Det ville være første gang i menneskets historie, og vel egentlig reelt en umulighed.

Dernæst: Den eneste sikre måling af menneskeliv er vel bilens egne sæderkontakter? Dvs, hvis der er én i bilen, vil det være ret farligt at befinde sig i bilen. Smart. Så der går sport i at fuske med sædekontakterne for at komme sikkert frem.

Hvorfor er det ikke tænkt til ende? Idag kaster folk noget ud fra broer. I fremtiden skal man bare flashe et papskilt med 2 personer (eller en pap-politimotorcykel som allerede er opstillet flere steder). Det skal selvfølgelig være strengt ulovligt.

  • 0
  • 0

Hvis bilen ikke kan se en klar løsning hvor den kan styre ud af ulykken, så skal den bare bremse alt hvad den kan. Den har et ekstra sekund til at gøre det i, i forhold til menneskers reaktionsevne. Det hjælper ganske dramatisk.

Det andet ender i absurditeter som Mads Mikkel Tørsleff f.eks. nævner.

Hvis en autonom bil ender i et uheld, så er der sket en fejl. Vi behøver ikke acceptere hændelige uheld med dem, ligesom vi ikke accepterer hændelige uheld med fly. Uheld vil blive sjældne nok til at vi kan gennemanalysere dem, ligesom alle Tesla-uheld bliver analyseret nu.

  • 5
  • 0

Så er det med, kun at færdes i så store grupper som muligt, eller bruge en "taktik" hvor man går tæt på andre.

Og hvad nu, hvis det er et valg mellem to "ens" personer, hvad så?

Jeg forstår rationalet bag "reglen", men etisk er der nogle problemstillinger, der skal arbejdes med.

  • 0
  • 0

Skal autobilen smadre den lille personbil med fire pensionister på 80+ eller dagplejens barnevogn med tre børn i?

Hvordan forestiller du dig at systemet kan have den information til rådighed i beslutningsprocessen? Den vil kun se lille bil vs person med barnevogn. En menneskelig chauffør vil hellere ikke have tid og mulighed for at opfatte mere.

Svaret er da ret enkelt. Den selvkørende bil kan ikke vide at der er tale om 4 stk. 80+ i bilen. Men den kan vide at den enten rammer et køretøj med en eller flere personer eller en blød trafikant.
Det må endvidere antages at den selvkørende bil har overholdt gældende hastighedsgrænse - så svaret er at den skal køre ind i den lille personbil. Her er sandsynligheden for mindst personskade størst!

  • 3
  • 1

Hvad hvis 5 personer går ud på vejen uden at se sig for. Skal bilen så vælge at køre dem ned eller ramme 2 uskyldige inde på fortovet?

Jeg vil jo mene, at den bør, som en ovenfor også skriver, bremse alt hvad den kan, og så se hvor galt det går. Den skal vel ikke styre ind på fortovet, hvis den der kan ramme uskyldige?

  • 7
  • 0

Hvis en ulykke er uundgåelig, er det ikke tilladt at tage personkarakteristikker såsom alder, køn, fysisk eller mental tilstand i betragtning, men systemet skal kunne afgøre, hvilket valg der vil skade færrest muligt mennesker.

Jeg kan faktisk ikke se andre løsninger. Naturligvis må man ikke gøre forskel på folk, og gøre nogle mennesker mindre værdige til at leve end andre. Don't mention the war.

Der er så et par åbne spørgsmål.

Jeg går næsten ud fra at kollision med en anden bil tæller som NUL skadede. Det er jo ikke muligt at tælle hvor mange passagerer der er i en anden bil. Man må jo også forvente at passagererne har sele på og er beskyttet med airbag.

Et nyt tænkt situation er så, hvad nu hvis en person går ud på vejen og eneste undvigelsesmulighed er en frontal kollision ved høj fart med en anden bil. Og man selv er en stor lastbil.

En detalje på dette er så, idet vi må formode at den modkørende bil med tiden også er selvkørende, skal den modkørende bil forudse ulykken, og selv undvige, hvis den altså kan.

  • 0
  • 0

Jeg synes faktisk at Allans måske lidt forenklet spørgsmål rammer plet i forhold til hele problematikken omkring det software der i sidste ende skal kontrollere bilerne. Det skal jo defineres ret præcist hvad vi mener med at 'skade' og hvad betyder det så i kombination med 'færrest mulige'? Der er altså ikke lige noget AI vi kan tage ned fra hylden og få til at finde ud af det. Den med at 'det finder vi ud af hen af vejen' går,ikke. Det vi ønsker skal specificeres så det kan udtrykkes i C++. Og hvis jeg eller mit barn bliver kørt ihjel af en selvkørende bil hvad glæde har jeg så af at vide at en CEO hos Tesla måske ryger ind bag tremmer? Det bliver algoritmerne da ikke bedre af. Fængselsstraf gives ikke som hævn men for at beskytte samfundet imod gentagen kriminalitet Jeg tror altså der er et godt stykke vej endnu inden bremsen og rattet bliver fjernet helt i bilerne.

  • 1
  • 0
Bidrag med din viden – log ind og deltag i debatten