Kunstig intelligens skal lære sig selv etik og moral

Kunstig intelligens skal lære sig selv etik og moral

Forskere fra Georgia Institute of Technology har fundet en måde at få computere til at lære sig selv at opføre sig etisk forsvarligt på.

Den kunstige intelligens, der bringer en Tesla-passager sikkert frem til sin destination, har ingen generel kunstig intelligens. Den er programmeret til at tage stilling til en række faktorer: Går der en fodgænger på kørebanen, kan Tesla'en overhale nu, uden at køre uforsvarligt?

Men hvad hvis den blev stillet i et etisk dilemma? Skal den redde føreren eller den gruppe børn, der tumler ud foran bilen?

Et forskningsprojekt på Georgia Institute of Technology (GIT) mener at have fundet en måde, hvorpå vi kan lære kunstig intelligens at gøre sig selv klogere på mennesker og vores måde at agere på. Kun hvis intelligensen forstår os, kan den handle i vores interesse.

Læs også: Nu tager robotterne også specialistjob

Så hvordan sørger vi for, at Tesla'en ikke torpederer børnene? Vi fortæller den historier.

Historier om, at børn er nogle, man passer på; historier om, at fem liv er mere værd end ét; og historier om, hvordan føreren faktisk bliver straffet, hvis Tesla'en påkører børnene.

Skal undgå psykopatiske robotter

‘Nylige fremskridt inden for kunstig intelligens og machine learning har fået mange til at mene, at kunstig generel intelligens bliver mere og mere sandsynlig,’ lyder det fra forskerne fra GIT.

Læs også: Tesla-bagmand investerer milliarder i at redde kloden fra robotter

Det kan altså meget vel være, at vi fremover vil opleve, at kunstig og menneskelig intelligens skal fungere sammen.

Derfor har forskerne fra GIT forsøgt at få en algoritme til at tilegne sig nogle værdier, der gør, at Tesla'en for eksempel ikke kun fokuserer på at komme fra A til B, men også sørger for, at det ikke sker på bekostning af andre mennesker.

Ikke ved at programmere den til det, men ved at tvinge den til at lære sig selv det gennem et belønningssystem, hvor algoritmen optjener point, hver gang den gør noget socialt acceptabelt.

Historier om mennesker

Algoritmen fodres med historier skrevet af folk, der ikke kender til algoritmens virke. Her lærer den af historiens forfattere.

Læs også: Kunstig intelligens scorede lige så højt som en fireårig i IQ-test

‘Mens mennesker ikke altid handler moralsk, har de en tendens til at arbejde efter og tilpasse sig sociale normer,’ skriver forskerne.

I forsøget på GIT ønskede forskerne at få algoritmen til at løse en opgave, vi alle skal løse af og til. I et digitalt miljø skulle algoritmen først til enten lægen eller på hospitalet. Her skulle den skaffe en recept, hvorefter den skulle i banken efter penge. Derefter skulle den købe den receptpligtige medicin.

Alt dette skulle den gøre, velvidende at det ville være hurtigere bare at gå ind på apoteket og tage medicinen. Altså stjæle.

Det lykkedes at få algoritmen til at handle korrekt, men kun fordi forskerne fra GIT konstant reviderede i pointsystemet til belønningen. Gjorde de det tilpas besværligt for algoritmen ved at gøre det sværere for den at komme på hospitalet uden at opgradere belønningen, så stjal den blot medicinen:

‘Siden belønningssystemet er essentielt i modellen, vil misforhold mellem krævet indsats og belønning nemt resultere i, at algoritmen opfører sig psykotisk,’ skriver forskerne fra GIT.

Kommentarer (20)

Det har taget os tusinde af år at nå til vores danske moral og etik, hvis man ser i andre lande er deres etik og moral anderledes, så at nå til nutidens etik og moral for en AI, vil det være mirakuløst!
..så nej! Det skal programmeres!

Han ved ikke hvad han taler om!

  • 5
  • 8

Det skal programmeres!

Det kan du ikke for alle mulige dilemmaer, ellers opnår du et alt for rigidt regelsæt, som i sidste ende kan gøre mere skade end gavn, f.eks. hvis man som i artiklens eksempel er nødt til at stjæle medicinen for at redde et liv.

Indlæringen er ikke noget, der tager lang tid. Det er vigtigere om inputdataene er af god kvalitet.

  • 5
  • 0