Kunstig intelligens på Folkemødet: 'Giv aldrig robotterne den røde knap'
more_vert
close

Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og at Teknologiens Mediehus og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, tilbud mm via telefon, SMS og email. I nyhedsbreve og mails fra Teknologiens Mediehus kan findes markedsføring fra samarbejdspartnere.

Kunstig intelligens på Folkemødet: 'Giv aldrig robotterne den røde knap'

Debat om kunstig intelligens i Ingeniørteltet med René Gade fra Alternativet, Ida Auken fra De Radikale, Anders Quitzau fra IBM, Thomas Bolander fra DTU, Thomas Ploug fra Etisk Råd og Mads Rydahl der står bag Siri. Illustration: Thomas Djursing

For få dage siden gav den verdensberømte svenske forsker Nick Bostrom et interview til den britiske avis The Guardian. I interviewet gav han sit syn på kunstig intelligens:

Hvis vi skaber en maskine med en intelligens, der er vores egen overlegen, og giver den frihed til at vokse og lære gennem adgang til internettet, så er det uden for enhver tvivl, at den vil udvikle strategier til at sikre den dominans, lød det fra Nick Rostrom, der sammenlignede forskningen i kunstig intelligens med børn, der leger med en bombe.

Med den indledning begyndte vært Martin Breum en af fredagens mest teknologisk interessante debatter, en debat i Ingeniørteltet om kunstig intelligens med danske topforskere og politikere.

Fremvæksten af algoritmer til at knuse og fortolke big data, intelligente assistenter på mobiltelefoner som Apples Siri og selvkørende biler er tegn på, at vi med stormskridt bevæger os mod en verden fyldt med kunstig intelligens. Det var der bred enighed om blandt debattørerne, der også var enige om, at vi ikke behøvede at frygte robotterne ... lige i de nærmeste år:

»Vi skal ikke frygte, at maskinerne overtager verden de næste mange årtier. Men det er da klart, at vi skal være opmærksomme, når de begynder at modellere og simulere scenarier. Til den tid skal vi sørge for, at de ikke har den røde knap,« lød det fra Mads Rydahl, der er entreprenør og en af hovedmændene bag Siri og UNSILO med en henvisning til billedet af den røde knap, som ofte bliver brugt til at beskrive supermagternes affyring af deres arsenal af atommissiler under den kolde krig.

Styrken er i samspillet mellem maskine og menneske

Ifølge Mads Rydahl vil kunstig intelligens være en støtte for menneskelige beslutninger i de kommende år. Kunstig intelligens vil være algoritmer, analyseværktøjer og assistenter, der åbner det enorme potentiale for viden i data, lød det fra entreprenøren, der fik anerkendende nik fra flere forskere, også professor i etik Thomas Ploug fra Det Etiske Råd:

»Maskiner har nogle fordele, og vi mennesker har nogle andre. Styrkerne ligger i samspillet mellem de to. Det så man allerede i skakdysten mellem Garry Kasparov og Deep Blue, hvor han prøvede, hvordan det ville være at have Deep Blue ved siden af sig som en støtte til at spille skak. Det var i det her samarbejde, at mennesket og maskinen tilsammen skabte en skakspiller, som var langt bedre end nogen af dem hver for sig,« siger han.

Kan robotter overtage politikernes arbejde?

Allerede i dag overlader vi kritiske beslutninger til maskiner, som når vi sender selvkørende biler på vejene. Og spørgsmålet er, hvor meget kontrol vi skal afgive. Hertil kom Alternativets Rene Gade med et overraskende - eller måske alternativt - indspark:

»Jeg synes, det er vigtig at overveje muligheden for, at der i en fjern fremtid faktisk godt kunne være nogle maskiner, som er bedre til at træffe beslutninger end mennesker. Jeg kan på én side godt få gåsehud ved tanken, men det er da en interessant tanke, og jeg frygter den ikke. Vi skal være åbne for, at hvis der for eksempel om 40 år var en masse lovforslag i Folketinget, som var meget administrative, så kunne det da godt være, at man kunne sætte en maskine til at træffe beslutningerne i stedet for en politiker,« lød det fra Rene Gade.

Men den tanke huede på ingen måde Ida Auken (R):

»Prøv lige og hør her. Aristoteles snakkede for 2.000 år siden om begrebet fronesis, det informerede skøn. Hver gang politikere overlader fronesis til nogle andre, så svigter de demokratiet. Vi kan heller ikke bare overlade beslutningerne til økonomerne, som så kan fortælle os politikere, hvad der er det rigtige at gøre. På samme måde kan vi ikke overlade beslutningerne til data. Vi kan bruge kunstig intelligens til at forbedre vores fronesis og forbedre vores beslutninger. Men i sidste ende skal der stå et menneske, som kan stå til ansvar, og som man kan stå over for og tale om retfærdighed,« lød det fra Ida Auken.

Hvem skal ofres? Pigen eller damen?... eller?

Debattens vært udforskede dog grænserne for maskinernes kontrol yderligere med et fiktivt spørgsmål: Lad os antage at en selvkørende bil er endt i en situation, hvor den er ved at køre ind i en lille pige, men kun kan undvige ved at køre ind i en gammel dame. Hvem skal tage beslutningen om, hvem der bliver ramt?

Blandt politikere og forskere var der en del mumlen, og Ida Auken jokede med, at der fandtes en plads i helvede til folk med sådanne spørgsmål. Men Mads Rydahl var klar med et svar, der mødte klapsalver fra alle:

»Scenariet er på ingen måde urealistisk. For vi er på vej ind i en tid, hvor vi skal til at programmere etiske og politiske beslutninger ind i de algoritmer, der styrer vores robotter. Her er vi nødt til at have politikerne med ind over. Og i eksemplet med bilen skal vi være åbne for, at måske skal vi programmere bilen til at køre ind i en lygtepæl og slå ejeren ihjel i stedet for de to fodgængere,« lød det.

Vær ikke bange for fremtiden

Endelig var der spørgsmålet, om robotterne ville gøre os arbejdsløse i fremtiden. Spørgsmålet blev yderligere relevant, da en undersøgelse blandt folk på Folkemødet viste, at hele 56 procent af de unge var bange for at robotter overtog deres job inden for de næste 5 til 10 år.

»Men vi skal ikke være bange. Vi kommer til at vinke farvel til en masse job, men der kommer nye til. De er bare anderledes, og arbejdskulturen bliver anderledes,« lød det fra Rene Gade.

Også Auken forsøgte at mane frygten i jorden:

»Det positive ved de unges frygt er, at de har blik for den udvikling, som er i gang. Alt bliver disrupted, og vi skal lære at tale ærligt om det. Jeg har foreslået en Siri-kommission, der kigger på, hvilke job vi får brug for i fremtiden, og hvordan de forandrer sig. Vi får brug for at uddanne og udvikle hele mennesker: Kunst og kultur, sågar Grundtvig skal tilbage på banen, for vi har brug for robuste mennesker, der kan flytte sig mod de her job, som vi endnu ikke kender,« lød det fra Ida Auken.

sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

Debattens vært udforskede dog grænserne for maskinernes kontrol yderligere med et fiktivt spørgsmål: Lad os antage at en selvkørende bil er endt i en situation, hvor den er ved at køre ind i en lille pige, men kun kan undvige ved at køre ind i en gammel dame. Hvem skal tage beslutningen om, hvem der bliver ramt?

Blandt politikere og forskere var der en del mumlen, og Ida Auken jokede med, at der fandtes en plads i helvede til folk med sådanne spørgsmål. Men Mads Rydahl var klar med et svar, der mødte klapsalver fra alle:

»Scenariet er på ingen måde urealistisk. For vi er på vej ind i en tid, hvor vi skal til at programmere etiske og politiske beslutninger ind i de algoritmer, der styrer vores robotter. Her er vi nødt til at have politikerne med ind over. Og i eksemplet med bilen skal vi være åbne for, at måske skal vi programmere bilen til at køre ind i en lygtepæl og slå ejeren ihjel i stedet for de to fodgængere,«

Vi skal ikke være blinde for den kendsgerning, at hvor idag er fuldt muligt, at det er bilens fører, der gennem uforsvarlig kørsel har bragt den gamle dame og den lille pige i fare, så vil dette ikke kunne være tilfældet med fremtidens autonome bil, da den aldrig vil agere uforsvarligt.
Svaret på hvem der skal dø, kunne derfor være, at det skal den person der ved uforsvarlig ageren har bragt sig i fare.
Sandsynlivis kombineret med en beregning af hvilken handling der har størst sandsynlighed for at forsage mindst skade, samtidig med at bilens passagerer ikke udsættes for fare.

Vi mennesker udsætter gerne og helt instinktivt og selv for fare for at undvige en hund, der er løbet ud på motorvejen. AI kører hunden ned, hvis der ikke kan undviges uden risiko. Faktisk en bedre løsning.

At programmere bilen til at køre ind i en lygtepæl og slå ejeren ihjel vil i hver tilfælde aldrig blive løsningen. Om ikke andet så af den simple grund, at det ville betyde, at man kunne slå en billist ihjel ved forsætteligt uforsvarligt at træde lige ud foran en bil.

  • 3
  • 0

'kunstig intelligens' er en folke-psykose, eller en form for intellektuel analfabetisme, fordi intelligens er et evigt princip, der aldrig nogensinde kan blive kunstig, i egentlig forstand.
Programmeret Bevidsthed, er ikke kunstig.
Sælgerne af 'kunstig intelligens' overser et sæt af faktorer, og det medvirker (omend ubevidst) til forstillingen, at skabere kan skabe skabere, eller at skabere kan skabe noget evigt uskabt.
Kom til bevidsthed, drop 'kunstig intelligens', tænk selv.

  • 0
  • 3

Der var klapsalver fra alle over dette forslag. Hva'ba!
Jeg har sagt det før: jeg sætter mig ikke ind i en bil eller køber en, som er programmeret til under særlige omstændigheder at slå ejeren ihjel.

Det er muligvis urealistiske usandsynlige senarier, som diskuteres. Men pas på at den slags diskussion ikke overtager debatten, for med det her løsningsforslag tror jeg simpelt hen at stort set alle klapperne vil fortryde, når displayet siger - om 2. sekunder dør du.

  • 0
  • 2

Delegering af beslutningautoritet vil i menneskelige forhold betyde at den der beslutter også er ansvarlig for beslutningen. Det er simpelthen grundlaget for den menneskelige beslutningsproces.

Hvis beslutninger delegeres til autonome systemer uden intelligens og bevidsthed vil beslutningerne blive taget ud fra helt andre vilkår end menneskelige beslutninger. Man kan jo ikke drage en maskine til ansvar.

Men der skal være en ansvarlig og det logiske vil være enten bilproducenten eller bilejeren holdes ansvarlig på vegne af bilen - ligesom forældre er erstantningsansvarlige for deres børn eller hunde (hvad der bør motivere til hensigtsmæssig opdragelse). Det betyder ikke at producenten eller ejeren vil blive tillagt skyld for ulykken - kun at hun er ansvarlig for bilens beslutninger. Skyldsspørgsmål er noget andet.

Man kan måske vælge hvilken prioriteter bilen skal have i sine beslutninger. Minimering af personskade uanset hvem der har begået fejl, beskyttelse af ejer/passager eller minimering af økonomisk tab uanset hvem der har fejlen. Eller måske kan beslutninger tages på grundlag af hvem der begår fejlen.

Prisen på forsikringen kunne logisk afhænge af bilens beslutningsprioriteter. Prioriteres beskyttelse af tredie part over beskyttelse af ejer/passager er præmien lavere end hvis der prioriteres højst i forhold til ejerens beskyttelse.

Osv. Hvad siger etisk råd?

  • 2
  • 2

Prisen på forsikringen kunne logisk afhænge af bilens beslutningsprioriteter. Prioriteres beskyttelse af tredie part over beskyttelse af ejer/passager er præmien lavere end hvis der prioriteres højst i forhold til ejerens beskyttelse.

Prisen ville blive lavets, hvis man prioriterede beskyttelse af den der havde optrådt uforsvarligt lavest.
Det kunne så lære forældre at holde børn og hunde væk fra kørebanen! I praksis ville det ikke være et problem, da en autonom bil ville nedsætte farten i god tid inden passage af farelementer som løse børn og hunde...og fuld folk.

  • 0
  • 1

Joseph Weizenbaum, der var en af de tidlige pionerer (findes der egl. "sene pionerer"?) indenfor AI skrev noget om emnet i sin bog "Computer Power and Human Reason", som jeg altid har syntes indkapsler det perfekt: "Since we have no way of making computers wise, we should not give them tasks that require wisdom".

/Bo

  • 0
  • 0