PODCAST: Indavlede AI-systemer er fulde af fordomme og beskidte data

 

I denne uges Transformator skal vi tale om indavl. Det har de fleste nok styr på, hvad er, når vi taler om mennesker og dyr. Men også AI-modeller kan være indavlede, og det gælder bl.a. Microsoft og Nvidias sprogmodel Metatron-Turing NLG, er er trænet på eksorbitante mængder data. Desværre er meget af det af tvivlsom kvalitet, og derfor er den fuld af fejl og uheldige bias. Det betyder, at alle de modeller, der baserer sig på den, også arver dens uheldige egenskaber, så de forholder sig fordomsfuldt til f.eks. muslimer, kvinder og homoseksuelle.

Snart går det løs ved vinter-OL, og Jakob Engelund Vistisen har været på besøg hos Jesper Carlson, landstræner for speedskate landsholdet, som fortæller om, hvordan de danske OL-skøjteløberes udstyr optimeres – både skøjter og dragten er altafgørende for præstationen.

Links

Fik du hørt: PODCAST: Sådan laver du din egen kunstige stemme

Du kan finde flere episoder af podcasten her på vores fokusside