ATV bloggen

AI er fremtidens teknologi

"AI er i dag, hvad IT var for 30 år siden. Du behøver ikke være verdensmester, men hvis du ikke er med på vognen, kommer du ingen steder".

Sådan beskrev innovationseksperten Christian Ketels kunstig intelligens (AI) ved lanceringen af ATV’s analyse ”Verdens førende tech-regioner”, der viser, at Danmark er bagud, når vi ser på vores styrkeposition inden for AI.

AI er fremtidens teknologi. Derfor er det bekymrende, at vi i analysen blot fandt 163 nyere patenter (med mindst fem citeringer) fra virksomheder med dansk adresse ud af 90.824 patenter på globalt plan. De danske patenter inden for AI udgør således 0,18 % af verdens patenter. Målt op mod de 30 stærkeste Science & Engineering-regioner i verden udtager vi i gennemsnit kun 22 % af det antal AI-patenter (ift. befolkningsstørrelse), som de 30 regioner i gennemsnit udtager.

Danske AI-patenter udtages af virksomheder som Vestas, Danfoss, Oticon og Novo Nordisk på områder, hvor AI spiller sammen med deres øvrige styrker. Det er godt, at de store danske virksomheder arbejder med AI, men vi skal have en langt større del af erhvervslivet med på vognen.

Danske styrker – og problemer

På forskningssiden har vi heldigvis stærke universiteter. DTU placerer sig som nr. 10 på listen over førende patenterende universiteter i Europa. På publikationssiden indtager vi, med 0,44 publikationer pr. 1.000 danskere, en global 22. plads. Vi har stærke forskningsmiljøer på vores otte universiteter inden for algoritmer og datalogi, og vi har viden i særklasse inden for brugerdesign og interaktion.

Forskningsmiljøerne er en nøgle til, at danske virksomheder kan blive stærkere på AI, da de uddanner det talent, som udfolder AI-løsninger i virksomhederne.

Vi har imidlertid forsømt at opbygge fødekæden. Derfor får vi stadigt sværere ved at levere på virksomhedernes efterspørgsel efter kompetencer. Det er beskrevet i Innovationsfondens rapport ”An AI Nation?”, og jeg hører selv ofte, at virksomheder opgiver at besætte stillinger, at universitetsstuderende bliver headhuntet under uddannelsen, og at kandidater med AI-kompetencer ansættes på lønniveauer, der langt overgår de fleste andre STEM-områder.

Der bør derfor skrues yderligere op for studenterindtaget på AI og datalogi, og samtidig skal der rekrutteres flere forskere og undervisere. Som sidegevinst vil det afhjælpe, at forskningsmiljøerne må afslå virksomhedssamarbejde, fordi efterspørgslen overgår miljøernes kapacitet.

Hvis vi ikke forstår mulighederne, ser vi kun problemerne

Både virksomheders forretningsmodel og offentlige organisationers arbejdsgange skal tilpasses for at udnytte mulighederne i de nye digitale teknologier.

Derfor arbejder ATV på flere fronter med AI, ikke mindst på sundhedsområdet. ATV’s sundhedsgruppe har netop udgivet et notat om potentialet ved kunstig intelligens i sundhedssektoren. Sundhedsgruppen har været i tæt dialog med ATV’s Digitale Vismandsråd, for de store udviklingsspring sker oftest i grænsefladerne mellem forskellige fagligheder og anvendelsesområder.

ATV har planlagt både rundbordmøder med beslutningstagere, webinarer og masterclass for vores AI Executive Network for at høste mere viden om anvendt kunstig intelligens. I akademiet bringes viden i spil på tværs af fagligheder, sektorer og brancher.

For AI kan anvendes i mange retninger. Coronakrisen viste, at lande, som smitteopsporede ved hjælp af AI og store mængder data, kunne holde smittetallet nede og samfundet åbent. Europa gik en anden vej, for vi er påpasselige ift. digital overvågning af borgerne. Vi har andre normer og værdier.

Men hvorfor ikke udvikle løsninger med danske normer, hvor vi borgere selv stiller vores data til rådighed for smitteopsporing? Vi giver rask væk vores data til store tech-giganter, men er tilbageholdne med at gøre det samme til Sundhedsstyrelsens smittestop-app. Det kalder på oplysning og dialog, så vi får alle med og får de bedste teknologiske løsninger.

Hvis man ikke forstår en teknologis muligheder og potentiale, ser man kun problemerne. Og som Margrethe Vestager udtalte ifm. EU’s AI-strategi, så skal vi bygge tillid op, samtidig med at vi udvikler. Og jeg vil her tilføje ”…og forsker og uddanner”.

Dette indlæg har tillige været publiceret i DATATECH PRO i januar 2021

Lia Leffland er akademidirektør i ATV. Hun skriver om de store samfundsudfordringer og hvordan teknologi, naturvidenskab og teknisk videnskab kan bistå med løsninger, og spørger, hvilke rammer giver vi innovation, forskning, vidensspredning, produktionserhverv og uddannelser i Danmark.
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

"AI er i dag, hvad IT var for 30 år siden. Du behøver ikke være verdensmester, men hvis du ikke er med på vognen, kommer du ingen steder".

Det er et citat af Christian Ketels, okay, men hvad mener vi nu?

For 30 siden var internettet lukket land for de fleste og AI var om ikke en by i Rusland, så medicisk udstyr på linje med den "robot", som de der arbejdede med den kaldte: "Didley". (Det skal nok siges hurtigt på udenlandsk for at forstå hvad de mente,)

For de få PC brugere dengang var AI simpelthen "computerstyrede" modstandere i diverse spil, selvom AI reelt var på vej, i form af hvad vi kaldte "ekspertsystemer" -beslutningsstøtte.

I dag er AI sådan noget som Perserverance's landing på Mars og grænsen mellem AI og ML (maskinlæring) er i bedste fald flydende. ML er for de fleste "statestik på meget store datasæt". Moore's lov reducerede i mange år IT m.m. til "anvendt dovenskab", men i de kommende år skal software-udviklere til at tage sig alvorligt sammen, hvis faget ikke skal blive en lille nieche for højtbetalte folk med flere PhD grader og "black hat" hackere, der vil undergrave tilliden mellem mennesker.

I dag er det vanskeligt for de fleste at få mere end promille af systemerne og tech-giganterne har ingen interesse i at ændre dette forhold, som man skal tilhøre STEM-segmentet - og blive i det - for at værdsætte.

Vi må gøre udvikling af effektive programmer og systemer tilgængelig for folk med en PhD-grad eller mindre; det er teknik. Eller bliver AI/ML kun de stores produkter, som det i sig selv kræver en PhD-grad, for at kunne tygge sig igennem manualerne til.

  • 3
  • 0

AI er i de fleste tilfælde ikke deterministisk. Det mener jeg er et stort problem. Det gør det svært at garantere pålideligheden. Når vi normalt bygger teknologi, så baserer vi det på determinisme, og gør meget ud af opsætning af tests, og at sikre de altid svarer ens. Er der forskelle i svarene, så er der tale om fejl - typisk kodningsfejl.

Vi kan sagtens bruge AI mange steder - men jeg mener, at brugen skal begrænses til steder, hvor der ikke kræves nogen sikkerhed. Vi skal tillade, at AI svarer forkert, på samme måde som vi tillader mennesker gør fejl.

I tilfælde, hvor der kræves stor pålidelighed, er et determinisisk system at foretrække. Og det vil næppe blive muligt at kontrolere udstyr, der ikke fungerer deterministisk.

Min holdning er, at det er mindst ligeså vigtigt, at kunne udvikle determinisisk og sikkert udstyr, som AI. Og det er en stor fejl i undervisningen, at de studerende ikke bliver oplært i determinisme. Som eksempel, burde en af de første opgaver man får, efter man har lært et programmeringssprog som C eller C++, være at de studerende opskriver en liste over alt i programmeringssproget, der kan føre til indeterminisme, f.eks. på grund af hardware, timing, manglende initialiseringer, eller andre forhold, og komme med forslag til, hvordan at det skulle være gjort, for at være 100% deterministisk, hvis ikke muligt, så være i stand til at begrunde hvorfor. Kan man ikke gennemskue programmeringssproget og se hvor i sproget, at der er implementeret mulighed for at der sker noget tilfældigt, så har man ikke rigtigt forstået noget. Og man burde også lære noget om, hvordan man helt undgår menneskelige fejl, f.eks. bagdøre og implementeringsfejl.

  • 2
  • 3

Overskrift:

AI er fremtidens teknologi

muligvis(?) Men den kræver åbenbart også sine ofre!:

When the woke outwoke the woke.

Back in December, Google fired AI Ethics Unit co-leader Timnit Gebru, in relation to her paper “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”. Google have now just fired their other ethics head, Margaret Mitchell, apparently for trying to gather evidence while investigating the ousting of Timnit...

https://wattsupwiththat.com/2021/02/23/goo...

Tjek også kommentarerne, der bla. introducerer begreberne 'Google Gag' og 'Guglag'! :)

  • 1
  • 3

AI ... bekymrende ... patenter

MIg bekendt er AI software, som da ikke (og iøvrigt rent moralsk heller ikke bør) kan patenteres i EU.

  • 1
  • 0

vi bygge tillid op

Som der stod i en bog jeg lige har læst:

Det er godt at stole på folk...men det er bedre at lade være.

  • 1
  • 1

Har man taget juraèn i ed?

Hvad nu, hvis en selvkørende bil kører et menneske ihjel - Kan ejeren stilles til ansvar??

Ejeren kan vel ikke gøres til ansvar for noget, som der ikke haves indflydelse på.

Ansvar, er noget man kun kan have, hvis man har mulighed for at undgå problemet.

Dermed, er det kun producenten, som kan have ansvaret, og eventuelt producentens ansatte.

Skal produktet igennem en godkendelse, og er produktet godkendt, kan alle sandsynligvis fralægge sig ethvert ansvar. Spørgsmålet er, om AI skal kunne godkendes, når producenten ikke kan stå inde for, at produktet opfører sig ens. Ved sædvanlige godkendelser, antages at produktet opfører sig ensartet, og at produkterne fungerer ensartet. Dette er producentens ansvar.

Min holdning er, at AI er godt, men kun i tilfælde hvor der ikke sættes krav til funktionalitet og at produktet opfører sig ens. F.eks. kan det bruges til spil, men næppe i en selvkørende bil.

  • 0
  • 2
Bidrag med din viden – log ind og deltag i debatten