»Frygt ikke kunstig intelligens – frygt menneskelig dumhed«
more_vert
close

Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og at Teknologiens Mediehus og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, tilbud mm via telefon, SMS og email. I nyhedsbreve og mails fra Teknologiens Mediehus kan findes markedsføring fra samarbejdspartnere.

»Frygt ikke kunstig intelligens – frygt menneskelig dumhed«

PLUS.
Microsoft slap i 2016 AI-chatbotten Tay (tv.) løs på Twitter. I løbet af 16 timer havde botten ‘lært’ så meget af de Twitter-brugere, der bombarderede den med bl.a. racistiske og nazistiske tweets, at den blev stoppet. Efter fadæsen lancerede Microsoft chatbotten Zo (th.), som er noget mere forsigtig. Illustration: Nanna Skytte

Nikola Danaylov er ikke bange for farlig kunstig intelligens, men for farlig og uintelligent anvendelse af kunstig intelligens. Han mener, at et samfunds etik kan influere enhver kunstig intelligens, det skaber.

Nikola Danaylov er bekymret for droner. Ikke i den forstand, at han er bange for at blive ramt af et droneangreb i den lejlighed, han deler med sin kone i Toronto, men i en mere akademisk forstand. Han er bekymret for den udvikling af kunstig intelligens til droner, som foregår netop nu, og ser det

Læs videre med et PLUS-abonnement

Få adgang til al PLUS-indhold og Ingeniørens e-avis med et PLUS-abonnement.

Som IDA-medlem har du gratis adgang til PLUS-indhold. Læs her hvordan.

som et eksempel på, at menneskelig dumhed har anvendt noget gavnligt til at gøre skade. Et eksempel på fravær af etik i et felt, som skulle have etik som førsteprioritet. »Faren ligger ikke i ondsindet kunstig intelligens, men i ondskab fra almindelig menneskelig natur,« siger han: »Selv hvis kunstig intelligens nogensinde blev ond, ville fejlen sandsynligvis ligge hos os selv. Det er os,...