Leder: Teknologi i overhalingsbanen – giv etikken et lift

Vi er i fuld gang med at overlade vores samfund til algoritmerne. Sådan lød advarslen fra it-folk på Ingeniørens forside sidste fredag. Søndag sad jeg til danske journalisters kongres og overværede et live­interview med Edward Snowden, der kom med en lignende advarsel: »Vi begynder at blive fanget af vores teknologi, og vi er ved at miste kontrollen,« sagde han via en direkte forbindelse fra Moskva.

Snowden foreslår, at vi får kodet værdier ind i vores protokoller, så systemerne respekterer de demokratiske spilleregler om bl.a. privatliv og frihed. Andre efterlyser en slags Genèvekonvention for udviklere.

Begejstringen har ellers været stor for de snart uanede muligheder, den stadigt stigende computerkraft giver os for at lade algoritmerne tage sig af det, vi ellers skal bruge egne hjernemuskler til. Algoritmer kan udrydde en række ellers uundgåelige menneskelige fejl i sagsbehandlingen. Og big data kan hjælpe os med at finde løsninger her og nu, som selv Mensas æresmedlemmer skulle bruge et menneskeliv på.

Men bagsiden af medaljen er der som altid. Nok kan vores nuværende systemer virke uigennemskuelige. Det kan være svært at finde frem til det menneske, der har truffet beslutningen i en sagsbehandling, endsige forstå rationalet bag. Men hvad når dette menneske er erstattet af en endnu mere uigennem­skuelig algoritme? Begrebet ‘kafkask’ kan få helt nye dimensioner.

Eftertænksomheden har også indfundet sig hos Facebook, efter det har vist sig, at falske nyheder har særligt gode kår i deres algoritmer. Når indhold, der deles af mange, favoriseres, er det vel ud fra ideen om, at så vinder det bedste indhold. Men at falske nyheder kan falde i denne kategori, havde udviklerne måske ikke overvejet. Og hvor Mark Zuckerberg har haft visionen om at skabe et kommunikationsnetværk, der kan samle hele verden, debatteres det nu, om hans algoritmer ikke netop gør det modsatte og anbringer os i ekkokamre ved at give os mere af det, vi allerede ser.

Spørgsmålet er, om vi kan kode værdier ind i algoritmerne og undvære menneskehjernens finurlig­heder som empati og pragmatisme i f.eks. retssystemer, sagsbehandling og kommunikationssystemer. Kodes bestemte værdier ind i algoritmerne, får de en gyldighed, som ikke udfordres på samme måde som det enkelte menneskes valg og tolkninger.

Facebook vil lade nye algoritmer klare en del af oprydningen i det falske indhold, men har tilsyneladende indset, at man er nødt til også at samarbejde med faktatjekbureauer for at nå hele vejen.

Det handler ikke længere kun om, hvad den teknologiske løsning kan være. Spørgsmålet er i lige så høj grad, hvad den bør være, og måske også om den bør være. Vi er midt i en rivende teknologiudvikling. Nu venter opgaven at finde den rette opgavedeling mellem menneskets intelligens og maskinens.

Ingeniører og it-folk har en stor opgave sammen med filosoffer, politikere, psykologer og andre relevante hjerner. Hvis ikke vi tager den alvorligt, risikerer vi, at Snowden får ret i sin frygt for, at vi med vores tilgang til big data grundlæggende er ved at bevæge os væk fra en verden, hvor vi er frie mennesker.

Emner : It-sikkerhed
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

Der er alt for store penge i det her, til at tro på at etik og moral kan styre noget som helst.

Overvej f.eks et øjeblik det menneskesyn, den etik og den moral, der er hos de som krypterer alle filer på et hospital og forlanger løsepenge.

IT branchen har kørt ansvarsfrit de sidste 60 år, (70 år hvis vi regner IBMs velvillige assistance under anden verdenskrig med), det er på tide at det bliver stoppet.

Det er på høje tide at stoppe den abefest og placere ansvaret hos dem der har magten og/eller evnerne til at gøre noget ved problemerne.

  • 4
  • 0
Bidrag med din viden – log ind og deltag i debatten