It-eksperter slår alarm: Vi lader ukritisk algoritmer styre vores samfund

Der var en ny fornemmelse i luften, da en af verdens førende teknologikongresser, Websummit, i år blev afholdt i Lissabon. En eftertænksomhed blandede sig pludselig med den teknologibegejstring, der ellers har præget tidligere års kongresser. Førende teknologer talte om behovet for etikere, filosoffer eller en slags Genèvekonvention for udviklere af de mange algoritmer, der i stigende grad styrer vores samfund.

Algoritmerne bliver nemlig brugt i mange grene af samfundet, fra styring af nyhedsvisninger og debat på sociale medier til vurdering af prøveløsladelser og styring af temperaturer i kontorbygninger. Og algoritmer er ikke neutrale og objektive, lød det både på Websummit og på udviklerkonferencen Øredev i Malmø for nylig.

»Vi har en tendens til at tænke på data som kolde kendsgerninger. Men der er mennesker indblandet, og deres bias kan krybe med ind i algoritmerne,« fortalte den amerikanske softwareudvikler Liz Rush.

Algoritmerne er grundlæggende ligeglade med din hudfarve, dit køn, din vægt eller din politiske overbevisning. Men de skabes af mennesker med forudindtagethed eller bias, og selv når vi lader computeren skabe en algoritme ved hjælp af maskinlæring, kan menneskets bias snige sig ind – for maskinlæring kræver oplæring på et datasæt, og det datasæt er i sidste ende udvalgt af et menneske.

»Vi plejer at sige, at teknologi er neutralt, men at det er op til os at bruge det til et formål. Men vi glemmer, at der bag store firmaer som Facebook og Twitter er hundred- eller tusindvis af mennesker på den anden side af skærmen, hvis job hver dag er at finde på nye måder, du skal bruge deres produkt på,« sagde Tristan Harris på Web­summit. Han er leder af nonprofit-bevægelsen Time Well Spent, hvis formål er at ‘bringe teknologien i overensstemmelse med vores menneskelighed’, og var frem til 2016 designetiker og produktfilosof hos Google.

Algoritmer fylder os med løgn

Et eksempel, der illustrerer problemet, er den formel, som ingeniører helt tilbage i 1960’erne skabte for den optimale temperatur i en kontorbygning. Formlen skulle sikre, at virksomheder ikke brugte mere energi end nødvendigt til opvarmning og køling. Men formlen byggede på en snæver række antagelser om stofskiftets indflydelse på, hvilken temperatur der føles komfortabel.

I praksis blev der blot målt på en enkelt normalvægtig 40-årig mand og ekstrapoleret derfra. En række undersøgelser har efterfølgende vist, at antagelserne var forkerte, hvilket betød, at kvinder og ældre medarbejdere sad og frøs på kontorerne, mens der blev spildt penge og ressourcer på unødvendig airconditioning. Alt sammen fordi ingeniørerne bag algoritmen tog udgangspunkt i et begrænset datasæt, der resulterede i en betydelig bias.

Eksemplet kan virke uskyldigt, men når andre algoritmer begår lignende fejl, så bliver f.eks. de forkerte fanger prøveløsladt.

I 2015 kom det frem, at der i årevis havde været fejl i den algoritme, der besluttede, om fanger i flere amerikanske delstater måtte gå fri. Andre eksempler inkluderer Googles billedgenkendelsesalgoritme, der kategoriserede mørke kvinder som gorillaer, fordi den var oplært på data­sæt, der fortrinsvis indeholdt fotos af hvide mennesker – eller med andre ord for få billeder af sorte til at oplære algoritmen pålideligt.

Minoriteter er således udsatte i algoritmeøkonomien. De udgør en lille del af det samlede datasæt, og derfor vil algoritmerne hælde mod flertallet.

»Hvis din algoritme rammer forkert 15 ud af 100 gange, så kan du ikke vide, om det er 15 gange ud af et tilfældigt udtræk, eller om de 15 er en minoritet, som vil opleve, at algoritmen rammer ved siden af hver gang,« siger Liz Rush.

Endnu et eksempel er Googles nyhedsalgoritme, der kan komme til at prioritere artikler fyldt med løgn i toppen af deres nyhedsside.

Det skete senest kort efter det amerikanske præsidentvalg, hvor Google News’ tophistorie var fra et site ved navn 70News.com, der helt forkert påstod, at Trump havde vundet størstedelen af stemmerne. Googles prioritering af historien fik løgnen til at sprede sig, men nu har Google taget konsekvensen og meldt ud, at de vil forhindre
Google-drevne reklamer på sites, der ‘fordrejer, fejlciterer eller skjuler information.’

Algoritme gav Trump en fordel

Valget i USA har også skabt selvransagelse hos Facebook. Det sociale medie har nemlig mødt massiv kritik, blandt andet på Websummit, for at ignorere deres ansvar for nyhedsvisninger og dermed samfundsdebatten.

En interessant kritiker var Joe Green, der byggede forløberen til Facebook, Facemash, sammen med Facebook-stifteren Mark Zuckerberg. Ifølge Joe Green skaber Facebooks algoritmer ‘ekkokamre’, hvor vi kun bekræfter hinandens synspunkter, og ligesom andre på Websummit mener han, at det bidrager til den opsplitning, vi ser i USA.

»Der er ikke lagt op til en debat, hvor du får empati eller skaber gensidig forståelse for andres synspunkter. Debatten er kort. Frem og tilbage. Og man bør stille spørgsmålet, hvordan vi kan bruge teknologien til at fremme forståelse for hinanden i stedet for opdeling,« siger Joe Green, der i dag står bag den populære Facebook-app Causes, der prøver at engagere folk politisk.

Lignende synspunkter kom fra Tristan Harris fra Time Well Spent. Ifølge ham var Trumps valgkamp det perfekte eksempel på, at algoritmerne bag sociale medier har fejlet.

»Trump er som en kunstig intelligens, der gør alt for at få opmærksomhed. Der findes intet internt kompas eller noget rigtigt eller forkert. Det handler bare om at sige hvad som helst for at få opmærksomhed. Få klik. Få delinger. Og det virker, fordi det udnytter Facebooks måde at dele informationer på,« siger han.

Kritikken er dog ikke prellet helt af på Mark Zuckerberg, der for nylig meddelte, at han vil udelukke nyhedsmedier fra at bruge Facebook, hvis de er ‘misvisende, illegale eller vildledende’.

Nu venter kritikerne blot på Twitter. Firmaet har nemlig mødt kritik for at være uigennemsigtigt og muligvis partiske, hvad angår, hvem de lukker ned, og hvem de giver opmærksomhed.

Software diskriminerer

Algoritmer står også højt på dagsordenen hos ledere i erhvervslivet og den offentlige sektor. Analysefirmaet Gartner taler om ‘algoritmeøkonomien’, fordi algoritmerne er det værktøj, der forvandler data til handling, og det er deri, den sande værdi af data ligger, som Gartners analysechef, Peter Søndergaard, udtrykte det tidligere i år.

Dataetik og algoritmedesign står lige nu i en situation, hvor feltet er nyt, og regulering på området i første omgang er op til virksomhederne, fordi lovgivning tager tid. Ligesom der har været eksempler på datalæk af persondata, så kan det næste problem blive de diskriminerende algoritmer.

Da forskere fra Carnegie-Mellon University og International Computer Science Institute i 2015 så nærmere på, hvordan Googles reklamer blev målrettet forskellige grupper, opdagede de, at når

Googles reklamemålretningsalgoritme troede, at internetbrugeren var en mand, blev der vist jobannoncer for højt betalte lederstillinger. En ellers tilsvarende, men kvindelig, profil fik ikke i samme omfang vist disse annoncer.

»Jeg mener, vores resultat indikerer, at der er dele af reklame­systemet, hvor der begynder at opstå former for diskrimination, og der er ingen gennemsigtighed. Det er bekymrende set fra et samfundsmæssigt perspektiv,« siger lektor Anupam Datta fra Carnegie-Mellon University til MIT Technology Review.

Behov for åbenhed om afgørelser

Set fra algoritmedesignernes side af skærmen handler mange af problemerne reelt om at at implementere algoritmerne på en måde, der tager højde for, at algoritmen kan tage fejl. Mange maskinlæringsalgoritmer giver faktisk et resultat med en tilknyttet sandsynlighed – men hvis denne sandsynlighed ikke fremgår af den videre proces, så kan brugeren ikke se, om algoritmen er 99 procent eller 50 procent sikker.

En algoritme med en indbygget bias kan eksempelvis være et problem, hvis den bruges til at sortere jobansøgere, og én eller flere minoriteter sorteres fra på grund af algoritmens bias. Derfor er der behov for åbenhed om algoritmerne for alle parter.

»I sidste ende bliver der formentlig tale om en afvejning mellem, hvor gennemskuelig og hvor smart software er til at træffe beslutninger. Her er der brug for teknologi og lovgivning, der sikrer tilstrækkelig fairness og gennemsigtighed uden at tabe for mange af de muligheder, der ligger i datadrevne beslutninger,« siger professor Rasmus Pagh fra IT-Universitetet i København.

For ligesom ingeniørerne i 1960’erne gjorde sig forkerte antagelser om kvinders stofskifte og dermed den ideelle kontortemperatur, så kan tilsvarende fejl få alvorlige konsekvenser, når algoritmer bygges ind i for eksempel pacemakere eller bruges til at sortere i vores daglige nyhedsstrøm. Især hvis vi ikke kan se, hvad algoritmen gør.

Emner : Software
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

De tre forfattere til denne artikel skal have stor ros for deres nødråb.

Der bliver gjort opmærksom på nogle grundlæggende farer ved manglende uigennemsigtighed omkring algoritmer - men det er jo sandsynligvis kun "toppen af isbjerget".

Samfundsmæssigt må vi jo nok konstatere at vi lever i en tidsalder hvor 'NUet' er i højsæde og at det er meget få mennesker som tager stilling til vores fælles fremtid - så længe vi kan få freemium apps og services og begrænse vores politiske engegement til et folketingsvalg hvert 4.år, ja, så stikker vi hellere end gerne hovedet i "strudsehullet" og lader os voldtage på det groveste - undskyld det sproglige billede. Så, vi skal nok ikke forvente den store opbakning fra 'folket' - alt afhænger af i hvor høj grad vores politiske repræsentanter formår at sætte sig ind i denne og mange andre teknologiske trends.

Her kan vi passende se på det delay der er fra nye teknologier slår igennem på verdensplan og til statslige/over-statslige mekanismer træder i karakter - jeg tænker her på EU's, Marianne Vestagers, mange tiltag efter 10 års laden stå til. Det er ikke just rettidig omhu.

Polittikerne kan/bør tage stilling til hvad der er godt for vores samfund på den lange bane, men hvilke værktøjer giver vi dem til i praksis at gøre noget? Skal algoritmer publiceres eller gøres tilgængelige for inspektion af statslige myndigheder? Kan vi forvente at nogen kan gennemskue selvlærende AI?

Er der ikke nogle kloge mennesker på denne side som kan komme med et konstruktivt oplæg til hvilke værktøjer, metoder eller procedurer vi kan hjælpe beslutningstagerne med?

  • 7
  • 0

Jeg tror, at det handler om ansvarsforflygtielse når algoritmer bruges til at tage beslutninger. Når en robot overlades ansvaret for værdipapirhandel og løsladelser er der en indgroet og misforstået tro på, at en algoritme ikke overser et vigtigt punkt eller måske omvendt: maskinen - altså ikke en person - har taget en beslutning om ... derfor har jeg ikke noget objektivt ansvar for eventuelle fejl. Jeg har længe undret mig over at værdien af et hurtigere kabel over Atlanten var vigtig for aktiehandlere. Men mennesker kan ikke tænke så hurtigt, at det i sig selv kan retfærdiggøre en ny forbindelse, som er nogle få tusindedele sekunder hurtigere. Altså er det maskiner, som bestemmer aktiekurserne i stedet for mennesker, som har sat sig ind i, hvad et firma er værd. Tag dog ansvar for jer selv og andre og brug jeres egen hjerne. Den må dog formodes at have etik og empati og en vis evne til at vurdere på faktorer, som ikke er helt åbenlyse. Tør dog turde at tage et reelt ansvar - ikke et ansvar for at få en maskine til at tage ansvar. Jo, det tager tid at tænke selv og tage stilling. Vi kan ikke overlade vores liv til andre, endsige til en maskine. Der er snart ikke nogen, som tør tage fejl. Men verden er bygget på erfaringer, som kun kan komme et sted fra: ved at turde tage fejl. Vi skal måske huske os selv på, at vi er mennesker.

  • 8
  • 0

Jeg er enig i, at den teknologiske udvikling accelererer for hurtigt i forhold til den humane og spirituelle udvikling, som er afgørende for en sund, etisk og reel trivselsfremmende udvikling. Et meget væsentligt moment i dette er spørgsmålet om bevidsthed og højnelsen heraf. Det bør jo være klart for enhver, at hvis man kun bruger en lille del af ens bevidsthed, så kan man ikke mobilisere et tilstrækkeligt begavet og holistisk overblik over menneskehedens situation til at gøre noget ordentligt ved den. Der er dog heldigvis en tendens til at flere personer, virksomheder og organisationer er begyndt at gøre noget konstruktivt ved det gennem noget så enkelt som meditation. Det har i de senere år vist sig, at mange har fået store humane fordele ud af brugen af f.eks. Mindfulness. Se nærmere på: http://mindfulness.au.dk/mindfulness/

  • 0
  • 6

Kritikken er dog ikke prellet helt af på Mark Zuckerberg, der for nylig meddelte, at han vil udelukke nyhedsmedier fra at bruge Facebook, hvis de er ‘misvisende, illegale eller vildledende’.

Gud ved hvordan Zuckerberg vil lave en algoritme, der kan skelne 'misvisende, illegale eller vildledende' medier fra seriøse medier ...

'Rokokoposten' og 'At Tænke Sig' får temmelig sikkert nogle problemer ;)

  • 3
  • 0

Mark har jo nok SIN opfattelse af hvad som er ‘misvisende, illegale eller vildledende’, som ikke nødvendigvis er gældende for andre end lige ham. Tilsyneladende har han jo især noget imod billeder, med en overvægt af farvetoner i retning af lys hud...

  • 7
  • 0

Jeg tror, at det handler om ansvarsforflygtielse

Der tror jeg nu at du tager fejl Carsten. Jeg har endnu ikke mødt en investor som har financieret noget produkt eller en service for at undgå at tage ansvar.

Vi lever i en kapitalistisk verden hvor de fleste beslutninger bliver taget med henblik på at opnå en gevinst. HFT og algoritme-handler står for mere end 50% af børshandlerne i USA og Europa er godt på vej - og man gør det simpelthen for at tjene flere penge på en automatiseret og skalerbar måde - ikke for at fralægge sig ansvar.

  • 2
  • 0

Der er dog heldigvis en tendens til at flere personer, virksomheder og organisationer er begyndt at gøre noget konstruktivt ved det gennem noget så enkelt som meditation

Ok, Hans, den løsning havde jeg nu ikke lige set komme som metode til at få styr på de samfundsmæssige konsekvenser ved en ureguleret brug af AI og algoritmer.

Der ligger sikkert en god mening bag dit input, men måske lidt naivt og tenderende mod det religiøse at tro at mindfulnes og meditation skulle kunne dæmme op for en uhensigtsmæssig brug af AI og algoritmer.

Eller, har jeg misset et banebrydende nyt kursus?

  • 1
  • 0

Tag dog ansvar for jer selv og andre og brug jeres egen hjerne. Den må dog formodes at have etik og empati og en vis evne til at vurdere på faktorer, som ikke er helt åbenlyse. Tør dog turde at tage et reelt ansvar - ikke et ansvar for at få en maskine til at tage ansvar.

Jeg er så glad for at se denne debat komme op og for at se, at selv os teknikere begynder at tænke over de Human Factors, som ligger begravet bag det hele, og som er undeligt svære, omend ikke umulige at formulere i neutrale computeralgoritmer. Der er skrevet millioner af sider om praktisering af demokrati, folkeoplysning, politik, filosofi, psykologi, religion og ingen er nogensinde nået frem til en universel sandhed, der favner alt.

Min bekymring er netop, hvad disse ting kan misbruges til i forhold til demokratiet. Det værste er ikke algoritmerne, men de mange mennesker som ukritisk tager resultaterne af algoritmerne og alt, hvad deres venner deler på Facebook til sig, uden at stille spørgsmålstegn ved validiteten af informationerne. Ekkorum er et fin betegnelse.

Det handler ikke kun om ansvar og realitetssans. Det handler også om at have viden til at gennemskue demagogerne og de falske oplysninger. Allerede NFS Grundtvig indså, at hvis demokratiet skulle komme til at fungere i Danmark efter enevældens opløsning i 1848, så var det nødvendigt at have "et oplyst folk". Derfor brugte han hele sit liv på at reformere folkeskolen og på at starte Højskolebevægelsen op, som (dengang) havde til formål at få den voksne befolkning klædt på til at kunne bruge deres demokratiske stemme med fornuft.

Det er jo hele det fundament - oplysning - som vi i dag ukritisk overlader til computeralgoritmer og "de andres mening".

  • 4
  • 0

Er der ikke nogle kloge mennesker på denne side som kan komme med et konstruktivt oplæg til hvilke værktøjer, metoder eller procedurer vi kan hjælpe beslutningstagerne med?

Det første vi bør gøre er at fylde en opdateret version af Asimovs love for robotter ind i vores grundlov:

0) En virksomhed, AI, computer eller robot må ikke gøre menneskeheden fortræd, eller, ved ikke at gøre noget, lade menneskeheden komme til skade

1) En virksomhed, AI, computer eller robot må ikke gøre et menneske fortræd, eller, ved ikke at gøre noget, lade et menneske komme til skade, så længe dette ikke er i konflikt med først lov.

2) En virksomhed, AI, computer eller robot skal adlyde ordrer givet af mennesker, så længe disse ikke er i konflikt med de første to love.

3) En virksomhed, AI, computer eller robot skal beskytte sin egen eksistens, så længe dette ikke er i konflikt med de første tre love.

  • 3
  • 1

Ok, Hans, den løsning havde jeg nu ikke lige set komme som metode til at få styr på de samfundsmæssige konsekvenser ved en ureguleret brug af AI og algoritmer.

Hans har fat i den lange ende. Det handler om evnen og viljen til at stoppe op og mærke efter hos sig selv, i stedet for bevidstløst at lade sig fragte rundt i et hamsterhjul, hvor ukendte aktører bestemmer tempoet. Men mindfulness er ikke hele svaret.

  • 2
  • 0

Det første vi bør gøre er at fylde en opdateret version af Asimovs love for robotter ind i vores grundlov:

Jammen, det er da lige det vi skal Poul-Henning!

Det kan være vi kan få L.L til at trække den igennem systemet som et addendum til den nye finanslov ;-)

Spøg til side: Vise ord, men nok en lidt stor mundfuld for danske politikere, og hvis det skal nytte noget skal ideen "sælges" på verdensplan, i.e. UN - er det en farbar vej inden for meget kort tid, eller blot et filosofisk tankespind?

  • 1
  • 0

Problemet går langt videre end til algoritmer. De fleste mennesker tror på alt de bildes ind - algoritmer, naturvidenskab, politik osv. Det skal bare pakkes godt ind.

Jeg tror problemet er uddannelsen. Vi opdrages ikke til at være kritiske i uddannelsessystemet. Det gælder også i naturvidenskab. Og det gælder i særdeleshed ingeniører. Når nogle (tænker specielt på Carsten) forholder sig en smule kritisk til det der skovles ind i hovederne på os, så er der øretæver til Carsten.

Helt uden at tage stilling til æter teori osv - så er det et problem, at vi tror på alt vi bliver fortalt af autoriteter. Vi opdrages til det. Jeg tror vi har behov for, at blive provokeret lidt ind imellem, og tænke lidt over det vi har lært. Kommer vi - hvis vi skal være helt ærlige - til præcist samme resultat, hvis vi skulle tænke?

Naturligvis er langt det meste af det vi lærer korrekt - og jeg tror netop, at det gør vi æder alt råt. Undervisningstempoet er så højt, at det også er eneste mulighed. Der er ikke plads til andet, end at gøre som lærebogen foreskriver. Og tænker vi selv, og søger gøre det på en anden måde, så får vi en rettelse med masser af røde spørgsmål, og en afsluttende bemærkning, hvor der henvises til lærebogen. Skriv af efter lærebogen, evt. med nye tal, og du er frelst.

Vi lærer at stole på naturvidenskab, forskning, algoritmer, osv. Virksomheders reklamefolk udnytter sig af vores godtroenhed, og bruger forskningen til deres fordel. Og samme gør politikere, kriminelle, og alle alle andre, der har interesser i det.

I sidste ende, så falder befolkningen for det fjæs, der ser troværdigst ud.

  • 2
  • 0

Rigtig god artikel.

Kunne man ikke bruge det gode gamle danske ord partiskhed i stedet for bias?

Ak ja, vort modersmål var dejligt ;-)

  • 1
  • 0

Meget enig man springer over hvor gæret er lavest fordi 'man har så travlt' og så får man endnu mere travlt bagefter fordi der skal ryddes op efter fejlene, der blev begået da man sjuskede. Meeen så sker det jo ofte at 'fejlen' skubbes nedaf, så dem der reelt laver noget får skylden ;-)

Der gøres meget for at holde fast i denne lotteribaserede økonomi og tvangstanken on det 'frie' marked...

  • 1
  • 0

Meget enig man skal ikke automatisk tage mediernes input for gode varer. Bare se på den amerikanske valgkamp. Jeg forbeholder i den sag min ret til at være neutral, men det virker som om at man kun måtte kritisere den ene af kandidaterne, da bølgerne gik allerhøjst. Her savner jeg god gammeldag dybdeborende journalistik, i stedet for blot at gengive det der kom fra de amerikanske medier. Deri ligger også en upartisk rigid algoritme, omend den ikke altid er maskinbaseret...

  • 1
  • 0

Men det er jo også irriterende at skulle tage stilling og bevæge sig ud af trygheden. Forrædderen fra filmen The Matrix ved godt at smagen af den lækre bøf han spiser er baseret falske stimuli, men han er ligeglad for det er jo det nemmeste...

  • 0
  • 0

En virksomhed, AI, computer eller robot må ikke gøre menneskeheden fortræd, eller, ved ikke at gøre noget, lade menneskeheden komme til skade

Det lyder tilforladeligt, indtil man tænker over hvad menneskeheden er. Et par tusind dødsfald eller en million er jo pebernødder i forhold til "menneskeheden". Det lyder lidt af fascisme, og kan let afspore. Det hele afhænger jo af hvad man, AI, robotten tror der kan skade menneskeheden nu og måske i fremtiden, og hvordan det er afvejet i forhold til gavnen af det samme. Jeg føler mig ikke tryg ved Asimovs love. De kan ende i nødvendighedens politik i en helt absurd aftapning.

  • 1
  • 0

Den ny overvågning som Justitsministeren vil indføre, styres også af algoritmer, så derfor kan uskyldige blive intenst overvåget og kan måske ikke indrejse i andre lande.

Der har været nogle eksempler med personer, som blev nægtet indrejse i USA. Uanset om det kunne være begrundet, så endte det i noget Kafkask, for det var umuligt at få en begrundelse for afvisningen, og derfor umuligt at finde ud af hvorfor og dermed prøve afgørelsen. Personer kan uskyldigt være havnet på en "terrorliste", men det er næsten umuligt at slippe ud igen, fordi det altsammen er yderst hemmeligt, så ingen må vide årsagen.

  • 3
  • 0

Jeg undrer mig over den tiltro diverse styrelser og ministerier har til at maskiner (IT) kan klare alt. Tænker de aldrig over, at de så bliver overflødige? Der er masser af eksempler på, at det oftest går gruelig galt, som med Skat. Hvorfor lader de ikke maskinerne gøre det enkle og uproblematiske, og så spytte de tvivlsomme tilfælde ud til manuel behandling. Lovene er er jo ikke indrettet logisk, så at tro en logisk maskine kan ordne det hele er faktisk absurd. I øvrigt ændres love og reguleringer sikkert hurtigere end det er muligt at kode maskinerne.

  • 1
  • 1

Gud ved hvordan Zuckerberg vil lave en algoritme, der kan skelne 'misvisende, illegale eller vildledende' medier fra seriøse medier ...

- tilsyneladende omgås Google med tilsvarende tanker ('troværdighed' frem for antallet af henvisninger):

THE internet is stuffed with garbage. Anti-vaccination websites make the front page of Google, and fact-free “news” stories spread like wildfire. Google has devised a fix – rank websites according to their truthfulness.

Google’s search engine currently uses the number of incoming links to a web page as a proxy for quality, determining where it appears in search results. So pages that many other sites link to are ranked higher. This system has brought us the search engine as we know it today, but the downside is that websites full of misinformation can rise up the rankings, if enough people link to them.

A Google research team is adapting that model to measure the trustworthiness of a page, rather than its reputation across the web. Instead of counting incoming links, the system – which is not yet live – counts the number of incorrect facts within a page...

Kilde:

https://www.newscientist.com/article/mg225...

  • 0
  • 0

Et eksempel, der illustrerer problemet, er den formel, som ingeniører helt tilbage i 1960’erne skabte for den optimale temperatur i en kontorbygning. Formlen skulle sikre, at virksomheder ikke brugte mere energi end nødvendigt til opvarmning og køling...

  • interessant at læse om 'fortidens synder' og sammenholde med dette - vedr. nu- og fremtiden:

Hos Dansk Byggeri bakker direktør Michael H. Nielsen op om, at Bygningsklasse 2020 bør ændres – forudsat at SBi’s beregninger holder vand. Men droppes skal den ikke.

»Hvis en reduktion af energirammen med 25 procent viser sig at være for meget, kan det være, at 10, 12 eller 15 procent er rentabelt. Og så skal man ikke bare droppe skærpelserne af komponentkravene, for inden for nogle brancher – eksempelvis vinduesbranchen – har man allerede udviklet vinduer, der kan overholde 2020-kravene.«

Desuden bør de beregningsprogrammer, man bruger til at dokumentere, at et byggeri overholder energirammen, opdateres, så det bliver muligt...

Se:

https://ing.dk/artikel/2020-byggekrav-kan-...

  • 0
  • 0
Bidrag med din viden – log ind og deltag i debatten