Deep learning kan forandre alt for virksomheder

Årtiers udvikling af algoritmer, neurale netværk og computerkraft har sat gang i en industriel revolution, som kan vende op og ned på vindere og tabere i den globale konkurrence.

Masser af data, computerkraft, avancerede algoritmer og neurale netværk er ved at forandre verden.

World Economic Forum har for længst udråbt big data som en af de drivende faktorer i verden lige nu, og i 2013 udnævnte det amerikanske teknologiuniversitet MIT’s Tech­nology Review deep learning som en af årets vigtigste teknologier.

Virksomheder, der er med på beat­et, gennemtrawler i dag nettet for at finde data, der kan gøre deres forretning mere effektiv via såkaldt deep learning eller machine learning.

Med big data fra både egne interne databaser og eksterne kilder optimerer virksomhederne deres processer, forbedrer kvaliteten og knytter kunderne tættere til produkterne.

»Jeg tror, vi står foran en ny industriel revolution, hvor masser af trivielle opgaver bliver automatiseret med big data og avancerede algoritmer som deep learning. Der vil ikke være en branche, som ikke bliver influeret, og de, som ikke er med, vil bukke under,« siger den danske ph.d. og ingeniør Morten Middelfart, der er bosat i USA og er en af de mere erfarne, når det gælder brug af big data i kommercielt øjemed.

Siden 1995 har han startet flere succesfulde virksomheder i Danmark og USA, hvor basis har været avancerede analyse-algoritmer, fuzzylogik og neurale netværk. I 1996 grundlagde han analysevirksomheden Targit. I dag arbejder han med analyse af kræftceller i virksomheden Genomic Expres­sions og sammenkædning af brugere af sociale medier via virksom­heden Social Quant.

Data giver dominans

Morten Middelfart opfordrer derfor virksomhederne til at komme i gang:

»For hvis du mestrer trenden, så taler vi ikke bare om en lille forbedring i markedsandele, vi taler om global dominans inden for en industri,« siger ingeniøren, der har to ph.d.er og en MBA med sig i bagagen.

Det er imidlertid endnu langtfra alle danske virksomheder, der har opdaget potentialet i data, viser en undersøgelse fra Dansk Industri. Blandt de små og mellemstore medlemsvirksomheder bruger kun hver tiende i dag big data i deres forretning, mens det er 40 procent blandt de store virksomheder:

»Men heldigvis har vi i Danmark en tradition for hurtigt at optage nye digitale værktøjer, så jeg tror, at også de mindre virksomheder hurtigt vil begynde at udnytte muligheder med big data og avancerede analyseværktøjer,« siger Adam Lebech, branchedirektør for DI Digital.

En af dem, der allerede er hoppet med på vognen, er den dansk-tyske virksomhed Easi’r, der leverer management-systemer til bilbranchen. Her bruger man neurale netværk til at analysere data fra kunder, så en bilforhandler for eksempel kan sende det helt rigtige tilbud på det tidspunkt, hvor kunden er mest tilbøjelig til at slå til.

Læs også: Fuzzylogik fortæller bilforhandleren, når du er købeklar

Årtier fra tanke til handling

Tankerne og teknikkerne bag machine learning og deep learning er på ingen måder nye. Fra tidligt i 1950’erne og frem til begyndelsen af det nye årtusinde har drømmen om neurale netværk, der kan efterligne den menneskelige hjernes neuroner og processer, bølget frem og tilbage med større eller mindre succes.

Ideen er at ‘træne’ netværket med store mængder data, så det kan lære sammenhænge. Men algoritmerne, som fodrer data ind i netværkene, var i årtier enten for svage, eller computerkraften for ringe.

I årene 2006 til 2010 skete der imidlertid noget: Deep learning- teknikker, hvor hvert lag i netværket har sin egen funktion og fodrer det næste lag, mødte en stærkt forøget computerkraft og adgang til enorme mængder data. Og så begyndte forskerne at få resultater. Siden er det gået over stok og sten, og i dag findes der netværk med over en million neuroner og tusindvis af lag.

Virksomheder som Facebook, Google, IBM og Microsoft investerer enorme beløb i teknologierne og har løbende ansat førende forskere på feltet. I 2014 købte Google den britiske virksomhed DeepMind, som havde lært en software-robot at spille ‘Space Invaders’ alene ved at fodre den med data for pixels på skærmen.

Hvis deep learning og big data virker som en ordentlig mundfuld for de mindre danske virksomheder, er der hjælp at hente. Flere initiativer med støtte fra DI, Industriens Fond og Innovationsfonden er klar til at hjælpe virksomheder ind i den nye verden.

Kommentarer (11)

Vil først lige gøre opmærksom på et Coursera kursus i machine learning.

https://www.coursera.org/specializations/m...

Et eksempel må være Tesla's selvkørende biler, men det kunne være spændende at se eksempler på anvendelser fra mindre danske virksomheder, - som kursus beskrivelsen står, har jeg meget svært ved at se det praktisk anvendt, - her kunne inspiration være en rigtig god ide.
Vi mennesker lærer jo også bedst gennem eksempler, ligesom computerne n gør :)

  • 1
  • 0

Præcis! Kan ikke lige se, hvordan "big data" kan være brugbart i en virksomhed der f.eks. producerer hydraulik cylindre... Tror næppe big data er relevant for alle brancher.

  • 1
  • 1

Præcis! Kan ikke lige se, hvordan "big data" kan være brugbart i en virksomhed der f.eks. producerer hydraulik cylindre... Tror næppe big data er relevant for alle brancher.

Uden at kende bare en smule til produktion af hydrauliske cylindre: Udrydde fejl. Fodr modellen med data for leverandør af materialet, tidspunkt for produktionen, maskine, medarbejder etc. og brug resultatet til ekstra check af specifikke eksemplarer.

Men det er nok ikke det mest oplagte område, det har du nok ret i.

Meget firkantet sagt, så er "big data" modeller oftest bedst til at gode til at FORUDSIGE om næste kunde/produkt etc vil have et bestemt egenskab, men det sker på bekostning af overskueligheden. Hvis man ønsker en FORKLARING på hvorfor det er tilfældet, så er gammeldags statistiske metoder nok bedre, selv om de er mindre præcise i deres evne til at forudsige.

I tilfældet med hydraulik cylindre, så vil man med big data kunne få at vide hvilke cylindre der skal have et ekstra check, men hvis man vil vide hvor i processen det gå galt, så er det bedre f.eks. at lave en simpel logistisk regressionsmodel, hvor man meget gennemskueligt kan se om det er stålet, maskinen, medarbejderen eller tidspunktet der er den største årsag til fejl.

Det største der nok er sket de sidste par år er ikke med algoritmerne, men tilgængeligheden. Det er i dag utroligt nemt at komme igang med at få testet om machine learning kan hjælpe en eller ens virksomhed.

Jeg kan stærkt anbefale at afprøve Microsoft Azure Machine Learning, hvis man har en smule interesse eller praktisk erfaring med statistik. Hvis man har et nogenlunde "rent" datasæt, så er det formidabelt nemt at komme igang med. For mig tog det under 30 minutter fra jeg første gang havde hørt om Azure ML til jeg havde fået trænet den første model og yderligere en lørdag indtil jeg havde fået rekodet variablerne til noget mere brugbart, testet de fleste muligheder igennem og optimeret modellen. Og hvis forsøget falder heldigt ud, så har man med to klik et færdigt API eller sågar et Excelark, der kan lave forespørgslerne for en.

Og det allerbedste: Microsoft Azure giver en 1300 kr og en måned til at afprøve det før man skal til at betale for nogetsomhelst. Det er faktisk langt rigeligt til at få en god fornemmelse af hvad Machine Learning er på et brugerniveau og om det kan tilføje værdi til ens forretning.

(hvis jeg så bare kunne finde mig et job, hvor jeg kunne bruge det, så ville det jo være helt perfekt)

  • 3
  • 0

det kunne være spændende at se eksempler på anvendelser fra mindre danske virksomheder, - som kursus beskrivelsen står, har jeg meget svært ved at se det praktisk anvendt, - her kunne inspiration være en rigtig god ide.

Machine learning synes nok især at være velegnet når det skal forudsige noget "om mennesker", da det kan fange meget diskrete kombinationer af faktorer. "Om mennesker" kan så være noget så forskelligt som præferencer, social interageren og sygdom. Hvis du ser eksemplerne i Courseras kursusbeskrivelse, så kan du se at de alle sammen har noget med det at gøre.

Og det er nok derfor det er så "hot": For at tage det mest oplagte: netbutikkerne vil da give en arm for at vide lige præcist hvilken vare de skal præsentere kunden for lige inden de checker ud for at få størst "mersalg" eller hvornår og med hvad de skal sende en reklamemail til dig for at få bid. Mulighederne slår A/B test med mange længder. Der er simpelthen rigtigt mange penge at hente på at forudsige mennesker adfærd og præferencer.

I den mere "ærværdige" afdeling, så håber mange jo også på at det kan revolutionere medicin, så "blot" ved at indtaste noget information om symptomer, patientens "baggrundsinformation" og eventuelt en DNA profil kan få en liste af mulige årsager, som det måske ville tage besøg hos mange forskellige speciallæger at få testet af. Jeg kan dog godt forstå at mange læger er en smule skeptisk overfor det og maksimalt vil bruge det som støtte til en normal traditionel sygdomsudredning eller når man er testet af for de almindelige gængse årsager.

  • 1
  • 0

Godt svar, det sætter nogle tanker igang :)

Tak :)

Der er en del tilføjelser jeg burde lave, de to vigtigste her er:

  • Der er en del begreber der blandes sammen når man taler om emnet. Emnet i sig selv er "Machine Learning", som handler om at lade computeren selv bygge modeller over relationer i data på baggrund af de eksempler man fordrer dem med. Indenfor ML udvikler og bruger man forskellige algoritmer til at "oplære" modellerne. En af de algoritmer er "neutrale netværk", som KAN konstrueres som et "deep learning network". Det handler meget forsimplet sagt om de lag som ligger imellem input og output i det neurale netværk. Jo flere lag, jo "deeper" er netværket. Så "deep learning" er en egenskab som et begrænset udsnit af de algoritmer man anvender indenfor machine learning har, ikke et navn for feltet som sådant. Andre algoritmer er f.eks. varianter af "decision trees".

  • Jeg skrev at ML nok især er velegnet når det skal forudsige noget om mennesker på den ene eller anden måde. Det fastholder jeg når det handler om anvendeligheden for almindelige danske virksomheder, Men det bruges jo også rigtigt meget f.eks. i analyse af billeder af alle mulige typer: oversættelse af håndskrift, klassifikationer af objekter på billeder etc. Og her er der faktisk et eksempel, ikke for hydrauliske cylindre, men for stomiposer af alle ting: Når Coloplast producerer dem, så svejser de de enkelte dele fast til hinanden, hvilket skal ske indenfor nogle snævre tolerancer. For ti år siden, da jeg så deres fabrik i nordsjælland, så skete svejsningen tilpas unøjagtig til at tolerancen nogen gange blev overskredet, selv om maskinen var korrekt indstillet. Tolerancen kunne følges på en lille skærm ved "samlebåndet" og der blev udtaget tilfældige prøver, som blev analyseret for tæthed. Det ville være en oplagt emne for ML: Fodr algoritmen med en helt masse billeder af stomiposer OG resultatet af tæthedsprøven, derved ville man stå med en model, som kunne fortælle om en pose ville have utætte svejsninger alene på basis af billedet. Dengang var der ikke nogen automatisk optisk check af poserne, men mon ikke at Coloplast i dag HAR indført noget sådant?

  • 1
  • 0

Fodr algoritmen med en helt masse billeder af stomiposer OG resultatet af tæthedsprøven, derved ville man stå med en model, som kunne fortælle om en pose ville have utætte svejsninger alene på basis af billedet

skulle have været "Fodr algoritmen med en helt masse billeder af stomiposer OG resultatet af tæthedsprøven, derved ville man stå med en model, som kunne fortælle om RISIKOEN FOR en pose ville have utætte svejsninger alene på basis af billedet"

  • 1
  • 0

Kender en der eksperimenterede med at bruge maskinlæring til tankelæsning. Så man skanner hjernen på en person mens man får vedkommende til at tænke på nogle bestemte ting. Skanningsbillederne er træningssættet.

Bagefter tænker vedkommende på nogle af de ting mens man igen skanner, og man kan så via den indlærte model aflæse hvilke ting vedkommende tænker på direkte fra skanningen. Altså tankelæsning.

Det er nogle år siden jeg sidst har snakket med ham, hvor det vist stadig var i sin vorden - men en sjov idé.

  • 0
  • 0

Dagens AI (fx deep learning ANN) og robotter er ikke omstillingsparate:

Why are deep neural networks hard to train?:
Citat: "...
How can we train such deep networks? In this chapter, we'll try training deep networks using our workhorse learning algorithm - stochastic gradient descent by backpropagation. But we'll run into trouble, with our deep networks not performing much (if at all) better than shallow networks.
...
In particular, when later layers in the network are learning well, early layers often get stuck during training, learning almost nothing at all. This stuckness isn't simply due to bad luck.
...
As we delve into the problem more deeply, we'll learn that the opposite phenomenon can also occur: the early layers may be learning well, but later layers can become stuck. In fact, we'll find that there's an intrinsic instability associated to learning by gradient descent in deep, many-layer neural networks. This instability tends to result in either the early or the later layers getting stuck during training.
...
These examples suggest that "What makes deep networks hard to train?" is a complex question. In this chapter, we've focused on the instabilities associated to gradient-based learning in deep networks.
..."

29. feb 2016, Mercedes udskifter nu robotterne med mennesker:
Citat: "...
Variationen i Mercedes-modeller bliver større og større, for kunderne vil have individuelt tilpassede biler. Den opgave har robotterne svært ved at klare. Derfor bliver de nu erstattet af mennesker.
...
Men de mange tilpasninger giver robotterne sved på panden, for det er ikke nemt at håndtere så mange variationer af én model. Og hvis produktionen skal ændres, kræver det tid at omprogrammere robotterne.
...
»Vi bevæger os væk fra at forsøge at maksimere automationen. I stedet skal mennesker tage større del i den industrielle proces igen. Vi har brug for at være fleksible,« siger Markus Schaefer.
..."

Sandia National Laboratories. (2014, May 15). The brain: Key to a better computer. ScienceDaily:
Citat: "...
"Today's computers are wonderful at bookkeeping and solving scientific problems often described by partial differential equations, but they're horrible at just using common sense, seeing new patterns, dealing with ambiguity and making smart decisions," said John Wagner, cognitive sciences manager at Sandia National Laboratories.

In contrast, the brain is "proof that you can have a formidable computer that never stops learning, operates on the power of a 20-watt light bulb and can last a hundred years," he said.
...
"If you do conventional computing, you are doing exact computations and exact computations only. If you're looking at neurocomputation, you are looking at history, or memories in your sort of innate way of looking at them, then making predictions on what's going to happen next," he said. "That's a very different realm."
...
Unlike today's computers, neuro-inspired computers would inherently use the critical notion of time. "The things that you represent are not just static shots, but they are preceded by something and there's usually something that comes after them," creating episodic memory that links what happens when. This requires massive interconnectivity and a unique way of encoding information in the activity of the system itself, Okandan said.
...
"The ultimate question is, 'What are the physical things in the biological system that let you think and act, what's the core essence of intelligence and thought?' That might take just a bit longer," he said.
..."

Sidste fra følgende indlæg.

  • 0
  • 0

1) Erfaringerne fra neurale netværk, hvor ekstra lag "neuroner" ikke bidrager til løsningen er meget udbredt. Men der er andre problemer hvor ekstra lag er særdeles hjælpsomme. Det afhænger ekstremt meget af arten af data og hvordan den er repræsenteret i datasættet. Jeg har haft meget lille succes med algoritmer af neural netværkstypen med de datasæt jeg har forsøgt med, til gengæld har jeg også en god fornemmelse for hvorfor.

2) Eksemplet fra Mercedes har ikke meget med machine learning at gøre. Faktisk undrede artiklen mig meget, at det ikke skulle kunne lade sig gøre at få en robot til at sætte forskellige radioer, sædebetræk, dashboardindlæg og kopholdere ind i de forskellige biler der kører forbi samlebåndet. Den mest sandsynlige forklaring er at det er en fysisk udfordring og ikke en der relaterer til programmeringen: Mennesket er simpelthen mere fleksibelt til at hente og indsætte f.eks. et af fem forskellige sæt sæder.

3) Den tredje tekst er halvt forkert og har halvt ikke forstået mange af brugsområderne. For at tage samlebåndet fra Coloplast: Machine learning algoritmer kan ikke få mening ud af sammenhænge hvis de ikke gives relevante variable at arbejde med. Hvis en bestemt lyd fra svejsemaskinen er en relevante variabel i forhold til utætte poser, så finder algoritmen jo ikke ud af det, hvis det ikke er repræsenteret i data. At gå fra "almindelige" statistiske metoder til ML gør ikke at man får brugbar information ud af nonsens. Den erfaring om sammenhænge som menneskehjernen kan opfange er brugbar i at selektere de variable (som i ML speak hedder "features"). Og det med brugsområderne: Ja, MÅSKE (stort måske) ville et menneske fange flere utætte stomiposer hvis han sad og kiggede billeder dagen lang, men det er et ufatteligt stort spild af menneskelige ressourcer og slet ikke økonomisk holdbart. Valget for Coloplast er imellem at tage stikprøver der sikrer at måske maks 0,1% af de poser der kommer ud til brugerne er utætte eller bruge ML på relativt begrænset computerkraft og få det tal ned på 0,01%

  • 0
  • 0