Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og du accepterer, at Teknologiens Mediehus og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, job og tilbud m.m. via telefon og e-mail. I nyhedsbreve, e-mails fra Teknologiens Mediehus kan der forefindes markedsføring fra samarbejdspartnere.
den teknoetiske garage bloghoved

Hvorfor skal vi nu til at tale om etik?

Gad vide, om det er en form for dårlig samvittighed, der er begyndt at ramme tech-industrien. Alle vegne begynder man at tale om etik, og termer som overvågningskapitalisme og -økonomi begynder at snige sig ind i sproget.

I samlet flok løfter vi – eller i det mindste store dele af industrien – en dårlig samvittighed over, at noget måske er blevet for meget, for altomfattende eller bare ikke lige det, vi havde drømt om.

Det handler nok om, at digitaliseringen er begyndt at blive voksen. Da jeg deltog i et antal debatter på Folkemødet i 2018, som alle handlede om digitalisering, skete det forunderlige, at de på den ene eller anden måde alle endte i en diskussion om etik.

Typiske spørgsmål: om det kan blive for meget med smart cities, om vi vil dele vore personlige sundhedsdata med arbejdspladsen, eller hvor man sætter grænsen for den digitale overvågning.

Denne humanistisk-filosofiske vinkling var vist egentlig ikke meningen, men det endte bare sådan. Og det var noget anderledes end det foregående år, hvor alting handlede om disruption, og hvordan vi bedst og hurtigst muligt kunne blive digitale.

Hvor langt kan vi strække digitaliseringen?

I år var det helt anderledes. Dér handlede debatterne om etik, og hvor langt vi kan strække digitaliseringen.

Nogle af dem var tilmed egentlige dilemmaspil, hvor man kunne teste grænser, og hvor langt digitaliseringen kan gå.

Og pludselig kom vi også ud i diskussioner om, hvorvidt det hele er blevet for meget, og om vi skal sige nej til mere digitalisering.

Så hvad skete der lige dér? Måske en kombination af en stigende bekymring over digitaliseringen, en konstatering af stigende digital overvågning kombineret med afsløringen af Cambridge Analytica-skandalen, som eksploderede i starten af 2018.

Den vidunderlige aktivistiske vision fra internettets barndom om demokratisering og fri kommunikation blev pludselig erstattet af dyb skepsis til de allerstørste aktører på selvsamme net, og vi begyndte – lidt mere – at tænke os om.

Og vi begyndte sandsynligvis også at forstå, at den aktivistiske frihedsvision forsvandt sideløbende med fremkomsten af nye økonomiske modeller.

Nemlig dem, der baserer sig på, at der er en økonomisk værdi i, at nogen er i stand til at forudsige din og min adfærd.

Med andre ord: Det er dig og mig, der er produktet i denne nye økonomiske dagsorden. Og det er de kunstige intelligenser, som overvåger, analyserer og forudsiger.

Den kunstige intelligens

Denne nye dagsorden er netop i høj grad katalyseret af forskellige teknologier og metoder inden for AI-feltet.

Kunstig intelligens er, sammen med blockchain, nok et af it-industriens yndlingsbuzzwords disse år, og der er ingen grænser for, hvad disse teknologier kan bruges til, og hvilken værdi de kan bibringe individer, virksomheder og samfund.

Og vi bruger den jo allerede rask væk – på vore telefoner, sociale medier og i masser af andre sammenhænge, ofte uden at tænke over dem.

Men der er også en bagside: Når vi taler om beslutningsstøttesystemer i den traditionelle teknologiverden, har de ofte en mærkværdig autoritet.

Det er, som om det er helt naturligt at fejle som menneske, men når en computer foretager en beregning, antager vi altid, at den regner rigtigt.

Men kunstige intelligenser, machine learning, neurale netværk, eller hvilke andre betegnelser vi bruger for denne kategori af systemer, er trænet på data fra den virkelige verden og er ret beset avancerede statistiske modeller.

Her er ikke logiske, gennemskuelige if-then-regler, der kan forklare, hvordan algoritmen finder frem til en given konklusion.

Men til gengæld er her masser af data. Data fra den virkelige verden, som bliver brugt til at træne modellerne, så de lærer mønstre, som de efterfølgende kan bruge til at evaluere nye data.

Uden data, ingen kunstig intelligens. Med andre ord er vi midt i et paradigmeskift fra procedural programmering til datadrevne algoritmer.

Menneskelige fordomme kodes ind i algoritmerne

Problemet er, at når vi træner maskinerne med observationer fra den virkelige verden, ofte data baseret på menneskelige beslutninger, kommer vi ofte uforvarende til at kode menneskelige fordomme, bias og fejlslutninger ind i vore algoritmer.

Vi ved jo godt, at mennesker er biased og drevet af ofte ulogiske og måske tilmed uretfærdige holdninger til andre individer på jordkloden.

Sådan er det bare, som man siger. Det er kun menneskeligt.

Der er bare det, at når maskinen får denne algoritmiske autoritet, har vi en tendens til at tro mere på den end på - menneskelige - mennesker.

Så vi skal lære at være skeptiske, og vi skal vide, hvor grænsen går for algoritmen.

Bias-problemet kan have ganske ubehagelige konsekvenser. Eksempelvis bruger det amerikanske retssystem indtil flere algoritmer til at beregne en risikoprofil for mennesker under anklage for kriminel aktivitet.

Vi ved, at disse algoritmer er biased og tilordner farvede langt større risiko end hvide, og der er talrige eksempler, hvor algoritmer blander sig i den retslige proces.

Den primære årsag er naturligvis, at disse algoritmer er trænet med historiske data: tidligere domme, adfærdsdata og meget mere.

Og da dommere – selv om de jo nok ikke direkte vil indrømme det – nok er biased og idømmer visse grupper hårdere straffe, vil deres beslutninger og adfærd blive til algoritmisk autoritet i det øjeblik, data er blevet til algoritme.

Men … retfærdigvis skal det nævnes, at det også kan gå den anden vej:

Den kunstige intelligens er ikke i sig selv skyldig i skævhederne, men kan også bruges til at påvise og eliminere svaghederne i menneskelig beslutningstagning.

Hvorfor etik?

Så vi er nødt til at starte en diskussion af, hvordan vi bedst muligt udnytter algoritmerne, hvordan vi forstår, om de indeholder bias, om vi bruger dem rigtigt, og om vi sætter grænserne de rigtige steder.

Udfordringen er, at det kan have ganske store konsekvenser ikke at have styr på algoritmerne. Ikke bare i retssystemet, men i samfundet som helhed.

Det er derfor, vi er begyndt at tale om etik. Etisk Råds definition af etik er:

»Etiske spørgsmål drejer sig om, hvordan man behandler andre mennesker og andre levende væsener. Etik handler om, hvad det gode liv er, og betydningen af at tage hensyn til andre og ikke kun have blik for sig selv og sine egne behov.«

… og man kan passende lege med formuleringerne her og erstatte det første 'man' med 'kunstige intelligenser' eller bare 'maskiner'.

Jo mere digitaliseringen kryber ind i vores verden, des flere beslutninger vil den tage – eller hjælpe os til at tage – og des større etiske problemstillinger kan vi komme i, hvis vi ikke passer på.

I bloggen her kommer vi til at diskutere disse emner fra mange vinkler, men hvis jeg skulle nævne de områder, hvor teknologien giver os etiske udfordringer eller dilemmaer, er det første, jeg kommer til at tænke på:

• Kan vi forstå, hvordan den forandrer vores adfærd?

• Kan vi se, den er der, når den er der?

• Kan vi gennemskue, om vi ser sandheden?

• Kan vi stole på dem, som leverer den?

• Kan vi være sikre på, at den ikke er fordomsfuld?

• Kan vi forstå, når den tages for langt?

• Kan vi vide, om den virker?

• Kan vi leve med, at den fjerner menneskelighed?

• Kan vi være sikre på, at den tager de rigtige beslutninger?

• Kan vi vide, hvordan vi som individer skal navigere i en verden af algoritmer?

Det er faktisk nogle ret komplekse spørgsmål, og ofte er der ikke simple svar.

Et etisk dilemma har jo pr. definition ikke et klart afgrænset svar (ellers ville nemlig være moral), så ofte er vi nødt til at diskutere os frem til konsensus.

Og hvis det ikke lykkes, må vi nøjes med diskussionen. Den er det vigtigste – så den tager vi over de kommende måneder.

Kim Escherich er AI-etisk ombudsmand og innovationsarkitekt hos IBM. Her i bloggen skriver han om forholdet mellem teknologien og mennesket. En teknologi, der ændrer vores privatliv, vores job, vores krop og vores samfund i en hastighed, hvor flertallet har svært ved at følge med.
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

Vi kan jo starte med alle disse internetsider der højt og helligt lover at de skam beskytter de data vi giver dem adgang til, selvfølgelig for at give kunderne den bedste oplevelse.
Siger man nej får man en virkelig dårlig oplevelse.

  • 2
  • 3

Et etisk dilemma har jo pr. definition ikke et klart afgrænset svar (ellers ville nemlig være moral)

  • nå??:

Etik og moral er begreber, der i bredeste forstand betegner synspunkter på, hvordan man bør opføre sig. Etik anvendes normalt om nogle filosofiske grundregler for ønskelig menneskelig adfærd. Moralsk opførsel er normalt anvendt om, hvad en given person eller en gruppe af personer anser for sømmeligt og rigtigt for menneskelig handlen...

https://da.wikipedia.org/wiki/Etik

  • 0
  • 0

Hans Henrik, der er mange definitioner på etik og flere forskellige retninger inden for filosofien. Det danske sprog er lidt magert på visse områder og når jeg adskiller etik og moral er det fordi, moral ofte defineres til at være mere konsensusorienteret (vi er enige om, at man ikke må slå ihjel), mens etik er en mere overordnet størrelse der også dækker de områder hvor der ikke måtte være fuld konsensus. Dilemmaet har pr. definition ikke et klart svar, og vi er nødt til at indgå i diskussion og reflektion for at mediere og forstå.

Hvis du vil have en god grundintroduktion - udover Wikipedias ret forsimplede definition - til teori og praksis inden for etik og AI, kan jeg varmt ambetale Paula Boddingtons bog "Towards a Code of Ethics for Artificial Intelligence": https://www.amazon.com/Towards-Code-Ethics...

  • 1
  • 0

Hej Kim

Spændende problematikker du her løfter.

Måske er en algoritme for etik netop løsningen på vi menneskers svingende (svigtende?) etik?
- Jeg skal dog se denne algoritme førend jeg tror på at den kan skabes, men det er måske et ideal at efterstræbe som KI-udvikler; at skabe KI, der ville kunne bestå 'etik-algoritmen'?

Med det sagt, at klargørelse af værdier som mennesesyn og samfundsideal, gerne må få en fremtrædende plads i KI-udvikleres to do-liste.

  • 2
  • 0
Bidrag med din viden – log ind og deltag i debatten