close

Vores nyhedsbreve

close
Når du tilmelder dig vore nyhedsbreve, accepterer du også vores brugerbetingelser, og at Mediehuset Ingeniøren og IDA-koncernen lejlighedsvis må kontakte dig om arrangementer, analyser, nyheder, tilbud med videre via telefon, sms og e-mail. I nyhedsbreve og mails fra Mediehuset Ingeniøren kan findes markedsføring fra samarbejdspartnere.

Politiken nægter søgemaskinerne adgang

Det har tidligere været fremme, at Det Hvide Hus skjuler sig bag en Robots.txt-fil, der skal forhindre søgemaskiner i at indeksere udvalgt adresser på WhiteHouse.gov.

Og for nylig da jeg skulle søge efter artikler på Politiken.dk (via Google) om "Libanon", stødte jeg på noget, synes jeg selv, mærkeligt.

Søgningen gav nemlig kun 32 hits, mens en søgning på "Libanon" direkte på Politiken.dk giver mere end 200 hits. Det er dog en lille forskel.

Som en sidebemærkning kan det nævnes, at der kun slipper 6 hits igennem hos MSN Search.

Med WhiteHouse-robots.txt i baghovedet prøvede jeg derfor at se, om Politiken.dk også har en liggende, og der var gevinst:

User-agent: * Disallow: /

Kort fortalt, alle søgerobotter bliver nægtet adgang til alt på Politiken.dk.

Hvorfor har Politiken overhovedet sat en Robots.txt op, der går SÅ hårdt til værks?

De dybe links?

Politiken har tidligere vist modvilje overfor dybe links. Som jeg ser det, kan Politiken vel kun være imod dybe links, hvis man VIL have folk forbi forsiden (annoncer spiller vel ind i dét valg) for at finde artiklerne derfra. Og der er altså også blokeret for søgerobotter, så man er nødt til at gå til Politiken.dk og søge derfra. Smart-smart, synes de sikkert.

Men hvorfor er der så 32 Libanon-artikler, der slipper igennem "filtret" og lander hos Google? Og kun seks hos MSN Search?

Og det store spørgsmål til jer læsere: Hvad mener du om, at Politiken forsøger at holde søgemaskiner ude?

Hvis du ligger inde med svar, eller bud på svar, på nogle af de spørgsmål, så læg en kommentar, jeg glæder mig til at læse med.

Bedste hilsner, Lars

PS: Til en hurtig sammenligning, kan det nævnes, at Jyllands-Posten slet ikke har en robots.txt, og Berlingske.dk har en, der er mindre restriktiv.

Kommentarer (12)

Det er vel på sin måde okay, når man tænker på at man ellers skulle ud og betale for avisen i butikkerne. Så hvis de tjener lidt på at jeg går ind forbi forsiden, jamen så lad dem.

  • 0
  • 0

Det er nu nok snarere den anden vej...
 
Ved ikke at gøre det søgbart mister de en masse trafik, som de kunne tjene reklamerpenge på.
 
Det er mere eller mindre kun i Danmark der nogensinde har været ballade med links ind deres netaviser, de fleste udenlandske aviser er mere end glade for alt den ekstra trafik det giver.

  • 0
  • 0

Jeg kan ikke forstå at de gør det... det beviser blot at de ikke har fattet end sk*d omkring hvad internettet egentlig er og hvordan det virker. Uden søgemaskiner var nettet aldrig blevet så stort og 'altvidende' som det er, det burde lige netop aviserne da være glade for, da de derved kan få en masse hits foræret af søgemaskinerne.
Jeg er nok ikke den eneste der anvender google hvis jeg vil finde information om noget, jeg kunne ikke finde på at gå ind på politiken.dk og indtaste min søgning der også. Så resultatet er at jeg slet ikke kommer på politiken.dk.
Jeg køber heller ikke den med at de skal have bannerreklamer, for så kunne de da bare sætte deres reklamer på alle siderne, det har de sikkert i forvejen.
Men politiken har åbenbart valgt at melde sig ud af internettet på trods af at de gerne vil have en hjemmeside... det er jo et demokrati vi har (i en eller anden form) så det må de naturligvis selv bestemmer. Jeg er bare overbevist om at de taber mere på at lukke for adgangen end de vinder.
 

  • 0
  • 0