Overblik: Kunstig intelligens i life science – en genvej fyldt med omveje?

Når man spørger ud i life science-industrien, hvad der de seneste år har gjort en stor forskel, lyder det fra mange: big data!

Muligheden for at skovle data ind, fodre dem til algoritmer, der hurtigt kan drage konklusioner ud fra dem, og omsætte dem til beslutningsstøtte i diagnostikken eller udviklingen af nye lægemidler har været en game changer, og snart åbner et stort nyt center for forskning i AI i København med 350 mio. kroner i ryggen fra diverse fonde.

Med AI, og herunder maskinlæring, kan skarpe algoritmer hurtigt screene tusindvis af molekyler for at finde deres farmakologiske egenskaber. Tusindvis af fotos af eksem kan ved hjælp af billedgenkendelse hurtige spore sig ind på en diagnose, og gennemtygning af store mængder sekventeringsdata baner helt nye veje for personlig medicin.

Som vi har skrevet om i artiklerne, Nyt AI-værktøj kan bane vej for bredspektret corona-vaccine, og Danske professor har testet Googles nye proteinfoldningsværktøj, så har kunstig intelligens for alvor sparket til muligheden for hurtigt at kunne forudsige, hvordan en lang række lægemidler vil blive modtaget af kroppen.

For eksempel har en erhvervs-ph.d. fra Københavns Universitet og Evaxion Biotech udviklet en algoritme, som benytter oceaner af data om proteiner til at forudsige, om en vaccine, stykket sammen af mange forskellige bidder fra virus, kan fungere sammen uden at blive afstødt af kroppens celler. Uden maskintyggede data er det svært at forestille sig, hvor længe dette arbejde kunne tage.

Går man en tand videre og beder maskinerne hjælpe menneskehjernerne med at træffe beslutninger, bliver det lidt mere kompliceret. Især når algoritmerne skal trænes med patientdata, som der langtfra er fri leg med.

Etik og sikkerhed er trods alt stadigvæk noget, mennesket og ikke maskinerne skal tage ansvaret for, så alle skal være sikre på at tale samme sprog og være enige om, hvad der er godt og skidt for os, når nye teknologier tages i brug.

Lovgivningen halter

Da vi spurgte lægemiddelindustriens brancheforening Lif om, hvordan det går med brugen af AI, var ordene først og fremmest, at der er tale om et paradigmeskift med uanet potentiale – men at lovgivningen, der skal følge med, altså også halter bagefter.

Således oplever nogle af life science-virksomhederne, at brugen af kunstig intelligens kan være en udfordring, når teknologien møder hverdagen.

Når det gælder forskning i nye lægemidler og behandlinger, kan man søge om lov til at benytte patientdata, og disse datamængder bliver kun større, og derfor kan kunstig intelligens være en nødvendig følgesvend.

Men så snart den smarte løsning til f.eks. diagnostik er udviklet og kunne være klar til at hjælpe lægerne på klinikkerne, så stopper festen for mange.

Når forskerne får adgang til sundhedsdata, så de kan udvikle nye diagnostikredskaber, der gør brug af kunstig intelligens, så er det svært efterfølgende at implementere og kvalitetssikre værktøjet i klinikken. Hjemmelen til at bruge sundhedsdata gælder nemlig kun til forskning – ikke til behandling.

Lovgivningen omkring brug af sundhedsdata skelner skarpt mellem forskning og behandling, og derfor er det en udfordring, når værktøjer baseret på kunstig intelligens ikke bare udvikles i forskningsøjemed, men efterfølgende skal ud i klinikken.

Flere steder arbejdes der på at lave syntetiske data, dvs. ikke-personhenførbare data, baseret på ægte patientdata. På den måde kan de rigtige patientdata blive liggende i forskningen, og den videre træning og analyse kan foregå på uægte, men repræsentative data.

Læs også: AI-app træner danske læger til at opdage af hudkræft

På de danske universiteter er man i gang med at opbygge en sådan ‘sandkasse’ af syntetiske data med det formål at kunne træne studerende i at jonglere med patientdata – uden at skulle bruge kræfter på at søge tilladelse til at trække ægte data.

Udfordrer dokumentationskrav

Og så er der hele dokumentationsdelen. Går vi ud i produktionsleddet, er flere virksomheder begyndt at introducere AI-løsninger i kvalitetskontrollen, når der produceres f.eks. hætteglas og ampuller. Millioner af billeder af både hele og ødelagte glas har givet systemet en ballast, der gør, at den lynhurtigt kan skubbe glas med selv den mindste fejl over i skraldebunken.

Udfordringen er dog, at sikkerheden naturligvis skal være ultrahøj, når det kommer til medicinemballage, og derfor skal alt dokumenteres over for myndighederne. Men hvordan dokumenterer man helt præcist, hvorfor den kunstige intelligens lod det ene glas frem for det andet suse forbi på båndet? Hvad er det helt præcist kriterium, algoritmen tog beslutningen ud fra? Kan man stole på, at den har lært nok, og at personen bag koden har lukket alle huller?

I dag foregår kvalitetskontrollen i høj grad ved hjælp af stikprøver ud fra veldefinerede krav og et begrebsapparat, der har eksisteret længe. Der er tale om en omfattende regulering, som både myndigheder og virksomheder arbejder inden for, men AI udfordrer kravene til at kunne dokumentere alt ned til mindste detalje.

Læs også: AI-værktøj begejstrer dansk forsker: Forudsiger proteiners finurlige 3D-struktur på sekunder

Nogle arbejder på at indføre de nye AI-teknologier, samtidig med at de fastholder de eksisterende og mere dokumenterbare systemer, men det er ikke nemt at forene.

Men mon ikke begrebsapparatet omkring og tilliden til AI en dag er så veludbygget, at myndighederne automatisk kan få både stikprøver og data uden bekymringer? Også selv om systemet løbende bliver gentrænet med nye erfaringer.

AI har helt sikkert lagt asfalten til en motorvej fyldt med potentialer, og de er i gang i EU med diskussionerne af, hvordan vejskiltene skal se ud, og hvor fartgrænserne skal ligge.

Så selv om lægemiddelindustrien er konservativ – og er nødt til at være det – så virker både forskere og virksomheder helt klar til at gasse op, når det lovgivningsmæssige koblingspunkt er fundet, så tilliden ikke triller baglæns på turen op ad bjerget.