Kunstig intelligens skal lære sig selv etik og moral

19. februar 2016 kl. 16:3120
Forskere fra Georgia Institute of Technology har fundet en måde at få computere til at lære sig selv at opføre sig etisk forsvarligt på.
Artiklen er ældre end 30 dage

Den kunstige intelligens, der bringer en Tesla-passager sikkert frem til sin destination, har ingen generel kunstig intelligens. Den er programmeret til at tage stilling til en række faktorer: Går der en fodgænger på kørebanen, kan Tesla'en overhale nu, uden at køre uforsvarligt?

Men hvad hvis den blev stillet i et etisk dilemma? Skal den redde føreren eller den gruppe børn, der tumler ud foran bilen?

Et forskningsprojekt på Georgia Institute of Technology (GIT) mener at have fundet en måde, hvorpå vi kan lære kunstig intelligens at gøre sig selv klogere på mennesker og vores måde at agere på. Kun hvis intelligensen forstår os, kan den handle i vores interesse.

Læs også: Nu tager robotterne også specialistjob

Artiklen fortsætter efter annoncen

Så hvordan sørger vi for, at Tesla'en ikke torpederer børnene? Vi fortæller den historier.

Historier om, at børn er nogle, man passer på; historier om, at fem liv er mere værd end ét; og historier om, hvordan føreren faktisk bliver straffet, hvis Tesla'en påkører børnene.

Skal undgå psykopatiske robotter

‘Nylige fremskridt inden for kunstig intelligens og machine learning har fået mange til at mene, at kunstig generel intelligens bliver mere og mere sandsynlig,’ lyder det fra forskerne fra GIT.

Læs også: Tesla-bagmand investerer milliarder i at redde kloden fra robotter

Artiklen fortsætter efter annoncen

Det kan altså meget vel være, at vi fremover vil opleve, at kunstig og menneskelig intelligens skal fungere sammen.

Derfor har forskerne fra GIT forsøgt at få en algoritme til at tilegne sig nogle værdier, der gør, at Tesla'en for eksempel ikke kun fokuserer på at komme fra A til B, men også sørger for, at det ikke sker på bekostning af andre mennesker.

Ikke ved at programmere den til det, men ved at tvinge den til at lære sig selv det gennem et belønningssystem, hvor algoritmen optjener point, hver gang den gør noget socialt acceptabelt.

Historier om mennesker

Algoritmen fodres med historier skrevet af folk, der ikke kender til algoritmens virke. Her lærer den af historiens forfattere.

Læs også: Kunstig intelligens scorede lige så højt som en fireårig i IQ-test

‘Mens mennesker ikke altid handler moralsk, har de en tendens til at arbejde efter og tilpasse sig sociale normer,’ skriver forskerne.

I forsøget på GIT ønskede forskerne at få algoritmen til at løse en opgave, vi alle skal løse af og til. I et digitalt miljø skulle algoritmen først til enten lægen eller på hospitalet. Her skulle den skaffe en recept, hvorefter den skulle i banken efter penge. Derefter skulle den købe den receptpligtige medicin.

Alt dette skulle den gøre, velvidende at det ville være hurtigere bare at gå ind på apoteket og tage medicinen. Altså stjæle.

Artiklen fortsætter efter annoncen

Det lykkedes at få algoritmen til at handle korrekt, men kun fordi forskerne fra GIT konstant reviderede i pointsystemet til belønningen. Gjorde de det tilpas besværligt for algoritmen ved at gøre det sværere for den at komme på hospitalet uden at opgradere belønningen, så stjal den blot medicinen:

‘Siden belønningssystemet er essentielt i modellen, vil misforhold mellem krævet indsats og belønning nemt resultere i, at algoritmen opfører sig psykotisk,’ skriver forskerne fra GIT.

20 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
19
22. februar 2016 kl. 17:29

en større strid om hvilke personers moral, der skal bygges ind i systemerne. Nogle mener, at visse hudfarver eller religioner er mindreværdige. Nogle er modstandere af abort - uanset hvad, nogle ikke. Nogle mener, at kondomer er værre end alskens spændende sygdomme. Nogle mener, at magt er ret. Nogle mener, at penge er ret. Nogle går ind for dødstraf. Nogle går ind for lemlæstelse, piskning, stokkeslag, korsfæstelse.

De fleste siger et og gør noget helt andet. De vil måske blive skuffede, hvis systemet ikke gør, som de forventer/er vant til? Politikere af en vis kaliber har en noget alternativ etik. Jeg må f.eks. ikke snage i andres post eller på anden måde belure min nabo. Men for nogle politikere er det uden videre en ret. Hvis det altså kun går den ene vej.

Så en AI skal tilpasses landekoderne? Der findes ingen universel etik og moral. Ikke engang inden for ét land.

Rent bortset fra at jeg ikke tror på ideen, så lyder den lidt skræmmende. Man kunne håbe på, at AI'en fik et moralsk sammenbrud eller sank hen i en elektronisk depression.

17
21. februar 2016 kl. 15:28

He he Henrik !

Der er intet der kan svigte,,,, kan svigte,,,,svigte,,,,te.....

16
21. februar 2016 kl. 15:06

Nu lader vi teknikken styre bilen for at eliminere menneskelige fejl i trafikken.

Så gør vi alt for at gøre teknikken menneskelig, for at … ?

15
21. februar 2016 kl. 13:45

Det er et problem at disse to forskellige begreber, alt for ofte blandes sammen. Det gør diskussionen til noget sluder.

Lidt forsimplet kan man sige at: Etik: er det der er til det fælles bedste Moral: er det vi har lært derhjemme som rigtigt og forkert.

Etik kan altså i princippet afgøres ved en analyse, hvis vi kan blive nogenlunde enige om hvad det fælles bedste er.

Moral er en trossag.

Det ene kan man i mange tilfælde komme frem til ved hjælp af tilstrækkelig intelligens, det andet er noget der kan læres.

... Og så må de jo som os andre, gøre det så godt de kan og lære af det når det går galt.

14
21. februar 2016 kl. 11:11

Hvad så?

Bilen rummer verdens ledere, børnene er genetisk normale, hvad så?

Blaaah.

13
20. februar 2016 kl. 19:33

Re: En Tesla som slår føreren ihjel?</p>
<pre><code>Måske hvis den udstyres med en knap så man selv kan vælge den mulighed.
</code></pre>
<p>Måske man kan tilføje at i dag kan de fleste biler køres uden at spænde sikkerhedsselen og airbaggen i visse kan slås fra.

Ja, men afbrydelse af disse ting går jo kun ud over dem som er inde i bilen - og dermed har accepteret risikoen ved at sidde i en bil.

Jeg synes stadigvæk at det er en overdrevet diskussion med talrige opstyltede eksempler. Om bilen skal køre ind i to børn på fire år, eller vælge at meje tre børn på tolv år ned. Eller køre frontalt ind i en mur for at undgå begge dele, på trods af at der sidder to børn på 10 år i bilen, etc.

Når de selvkørende biler kommer på vejene, vil antallet af ulykker blive kraftigt reduceret. Længere er den ikke. For hver ulykke en selvkørende bil forårsager, har automatiske biler generelt fjernet ti ulykker som ville være forskyldt af berusede eller trætte eller på anden måde uoplagte chauffører.

Når vi nu er i gang, er det selvfølgelig smart at bilen kan finde ud af at køre ind i nogle affaldsstativer i stedet for en flok skolebørn, det øger jo bare sikkerheden endnu mere. Men kryptiske eksempler med om den skal slå det ene eller det andet individ ihjel, det er noget pjat. Kan den ikke undgå at slå nogen ihjel, så klods bremserne! Så har den gjort det så godt den kan!

12
20. februar 2016 kl. 16:43

Hvilken moral og etik opfattelse er den rigtige?

Jae den skal vel tilpasses hvert enkelt land. F.eks. må en selvkørende bil godt køre vantro ned i Saudi Arabien og omvendt må den under ingen omstændigheder køre ind i en ko i Indien. I Danmark må den godt køre katte ned. Osv. osv.

10
20. februar 2016 kl. 15:28

Er det menneskelige naturlige dyder, eller er de også tillærte ?

For hver eneste religionsområde har hver deres etik og moralopfattelser.

Hvilken moral og etik opfattelse er den rigtige?

8
20. februar 2016 kl. 01:28

Så jeg må stadig insistere på at der skal være menneskelig programmering til, en AI må aldrig lære selv!

En AI er jo en maskine der opfatter nye ting gennem indlæring, så det at programmere den, er jo at give den de rigtige inputs. Det er, ihvertfald i første omgang, mennesker der gør det.

7
19. februar 2016 kl. 21:52

Og en AI vil automatisk og mirakuløst gøre det bedre og træffe ALLE de gode og rigtige valg?

Der var engang en terrorist, der krævede løsepenge i et kapret fly der landede i en diktator stat, diktatoren lod alle i flyet dræbe, så var der intet at rafle om og der var aldrig mere nogen gidseltagninger. Måske kan en AI finde på at lave samme scenarie for at løse problemet mest humanitært i nutid og fremtid.

Så vil vi nok i sidste ende med Terminator scenariet, hvor mennesker bliver udslettet.

Så jeg må stadig insistere på at der skal være menneskelig programmering til, en AI må aldrig lære selv!

6
19. februar 2016 kl. 20:55

Hvis børnene tumler ud på vejen foran en bil, der ikke kan undvige eller stoppe i tide, er der intet problem for bilen.

Den "træder" så hårdt på bremsen, som den kan for at minimere skaderne. Case closed.

Hvis den, ved at undgå børnene, udsætter andre for fare, er det no-go.

5
19. februar 2016 kl. 19:42

Måske hvis den udstyres med en knap så man selv kan vælge den mulighed.

4
19. februar 2016 kl. 19:33

Hvem mon køber en bil, som under visse omstændigheder kan finde på af ofre føreren/passagererne? Det kræver en god marketingsafdeling at komme positivt ud af den ide.

3
19. februar 2016 kl. 18:54

Det skal programmeres!

Det kan du ikke for alle mulige dilemmaer, ellers opnår du et alt for rigidt regelsæt, som i sidste ende kan gøre mere skade end gavn, f.eks. hvis man som i artiklens eksempel er nødt til at stjæle medicinen for at redde et liv.

Indlæringen er ikke noget, der tager lang tid. Det er vigtigere om inputdataene er af god kvalitet.

1
19. februar 2016 kl. 18:28

Det har taget os tusinde af år at nå til vores danske moral og etik, hvis man ser i andre lande er deres etik og moral anderledes, så at nå til nutidens etik og moral for en AI, vil det være mirakuløst! ..så nej! Det skal programmeres!

Han ved ikke hvad han taler om!