Nyt center for etik i AI: Teknologien løber fra os

6. december 2016 kl. 11:035
Nyt center for etik i AI: Teknologien løber fra os
Illustration: ukendt (fra Version2).
Et af USA´s største advokatfirmaer starter nu et center for forskning i etik i kunstig intelligens. »Teknologien er langt foran samfundets evne til at tøjle den,« lyder det.
Artiklen er ældre end 30 dage

»Vi er ved et unikt punkt i historien, hvor teknologien er langt foran vores evne til at tøjle den.«

Sådan lyder advarslen fra Subra Suresh, der er formand for Carnegie Mellon University i Pittsburgh, og netop er blevet et forskningscenter rigere. Men det er ikke et almindeligt forskningscenter.

Centret kaldet K&L Gates Endowment for Ethics and Computational Technologies skal nemlig koncentrere sig om forskning i etik og kunstig intelligens. Centret er støttet med 67 millioner kroner af et af landets største advokatfirmaer K&L Gates, der har haft faderen til Bill Gates, William H. Gates, som ansat, skriver New York Times.

At det er et advokatfirma, der smider penge i centret, er ikke tilfældigt. Bestyrelsesformand Peter Kalis nævner i flere medier eksempler på, hvordan advokaterne forudser besværlige sager i fremtiden. Hvem har for eksempel ansvaret, når en førerløs bil er involveret i et uheld? Hvem har ansvaret, hvis en kamprobot går amok på slagmarken?

Artiklen fortsætter efter annoncen

Og så bekymrer det Peter Kalis, at nogle personer har seriøse diskussioner om hvorvidt dommere kan erstattes af kunstig intelligens.

»Når vi når til det punkt, så har det afgørende konstitutionelle og sociale konsekvenser for ethvert land og enhver nation, som sætter pris på et lovstyret samfund,« siger han til New York radiostationen NPR.

En lignende diskussion fandt sted på årets Folkemødet på Bornholm, hvor Alternativets Rene Gade - der i øvrigt ikke genopstiller til næste folketingsvalg - kom med den kontroversielle udtalelse, at han mente, man burde overveje muligheden for, at der i fremtiden »godt kunne være nogle maskiner, som er bedre til at træffe beslutninger end mennesker. Jeg kan på én side godt få gåsehud ved tanken, men det er da en interessant tanke, og jeg frygter den ikke,« sagde han.

Læs også: Kunstig intelligens på Folkemødet: 'Giv aldrig robotterne den røde knap'

Artiklen fortsætter efter annoncen

Tanken er heller ikke fjern for førende it-eksperter verden over, der i dag kan konstatere, at algoritmer allerede i dag styrer store dele af vores samfund. Men de fleste eksperter virker lidt mere skeptiske end Rene Gade.

Læs også: It-eksperter slår alarm: Vi lader ukritisk algoritmer styre vores samfund

Det hvide hus har ved flere lejligheder afholdt workshops om betydningen af AI i samfundet, og Obama administrationen udsendte i oktober en rapport om de konsekvenser, de forudså. I september gik de store firmaer - Amazon, Google, IBM og Microsoft - sammen i et partnerskab for at etablere etiske guidelines for systemer baseret på kunstig intelligens.

AI startede på Carnegie

Placeringen af centret på Carnegie Mellon University er på mange måder symbolsk, da universitetet i 50’erne var blandt de første til at udvikle software, der viste, hvordan algoritmer kunne laves til “intelligent” at løse problemer.

Universitetet samarbejder også med Boeing om at udvikle maskinlærings teknikker til at analysere store mængder data fra fly som Dreamliner.

5 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
5
7. december 2016 kl. 17:32

At hacker kan bruge intelligent teknologi for at bestjæle os er naturligvis i stor trussel, som vi må have løst. Spørgsmålet er hvordan? Den amerikanske sikkerhedstjeneste NSA brød ind i min computer gennem et verdensomspændende netværk for ca. 5 år siden. Siden det skete, har jeg fået en dobbelt sikkerhed, så når nogen vil fjernbetjene min computer sendes der først en kode til min mobil telefon, men det kan jo også hackes. Det største sikkerheds problem er, at hackeren altid er et skridt foran vores sikkerhed. NSA har installeret 50.000 malvarer i computere, - en artikel Scientific American havde skrevet om for ca. et år siden, men denne artikel er ikke længere tilgængelig, så det måtte de nok ikke afsløre. Der er mange svage led omkring intelligent styring.

4
7. december 2016 kl. 16:33

.... man kunne kalde polyteknikere. Den titel kan man kun hæfte på meget få i dag og inden for IT går udviklingen så stærkt i alle retninger så beslutningstagere beviseligt ikke kan følge med, samtidigt med at disse har blind tillid til at alt kan mennesket styre.

Men det er ikke muligt at overskue virkningerne af implementeringer, som bliver hackerangrebet af kriminelle, der udnytter tilliden til systemernes meddelelser fra officielt hold er korrekte. Hvis et system er autonomt og får lov til at være det, vil det blive svært at skelne om en meddelelse er korrekt eller den er fabrikeret af en kriminel hacker......ligesom en meddelelse som jeg modtog på min telefon i går.

"Digitallis NemID konto er suspenderet. Bekræft dine oplysninger for at genåbne den.https://goo.gl/rPstJA"

Der skal ikke megen fantasi til for at forstå hensigten med den meddelelse.

Den teknisk langt bedre end de tidligere Nigeria Breve. Personer med svage evner for at analysere sprog og IT går i fælden, i blind tillid til at meddelelsen er officiel og sand.....og bliver bestjålet.

3
7. december 2016 kl. 08:54

Mennesket skal naturligvis bevarer styringen af kunstig intelligens, så naturligvis er det mennesket der kan drages til ansvar for de"afgørelser" kunstig intelligens kan foretage, for det er mennesket der har skabt de algoritmer kunstig intelligens handler efter.

2
6. december 2016 kl. 22:34

Kan man (i alle tilfælde) sagsøge et menneske for en forkert afgørelse?

1
6. december 2016 kl. 17:23

Kan man sagsøge kunstig intelliges for en forkert afgørelse?