Uitgevers willen wet om zoekmachines aan banden te leggen

Kranten willen wet om zoekspiders te beperken“, kopte Webwereld vandaag. Vorige week is er een internationale bijeenkomst geweest van uitgevers die met lede ogen toe moesten zien dat hun traditionele distributiemodellen niet meer werkten op internet. Een dergelijke internationele conventie is niet compleet zonder eigen declaratie en dus is er de ‘Declaratie van Hamburg‘ getekend waarin opgeroepen wordt het intellectuele eigendomsrecht en de vrije nieuwsgaring en journalistiek te beschermen.

Onderdeel hiervan is de ontwikkeling van een nieuw protocol, ACAP, dat feitelijk een (veel) uitgebreidere versie is van de bekende robots.txt en waarmee instructies gegeven kunnen worden aan de crawlers van zoekmachines als het gaat om wat er geindexeerd kan/mag worden van een site.

Nu hebben de uitgevers het verlangen uitgesproken om dit wettelijk vast te gaan leggen zodat zoekmachines (Google wordt natuurlijk met name genoemd) zich moeten conformeren aan dit protocol. Het maakt het voor uitgevers mogelijk om bijv. de duur van de indexering te beperken zodat nieuws(artikelen) slechts korte periode beschikbaar zijn in de indexen van Google. Natuurlijk met als doel dat na die periode het artikel nog steeds wel, waarschijnlijk niet zonder creditcard, via de originele nieuwssite verkrijgbaar is.

Ik moet zeggen dat ik hier een beetje in twijfel over sta. Aan de ene kant vind ik dat uitgevers en kranten eens goed moeten gaan kijken om hun content rendabel te krijgen via internet zonder gelijk met technisch restrictieve maatregelen aan de slag te gaan. Aan de andere kant vind ik dat websites, en dat geldt dus ook voor nieuwssites, zelf zouden moeten kunnen bepalen wat er wel en wat er niet geindexeerd mag worden door een zoekmachine.

Beide kanten hebben namelijk een selecterende werking: diegene die te veel vasthouden aan traditionele ouderwetse modellen zullen van de markt verdwijnen en dat geldt ook voor die nieuwssites die hardnekkig weigeren opgenomen te worden via een zoekmachine. Leuk of niet, Google is de nummer 1 zoekmachine en de nummer 1 methode om je webcontent ontsloten te krijgen op internet. Robots.txt bestaat al jaren en er valt veel te zeggen voor een iets uitgebreidere en vooral betere opvolger.

En toch jeukt het dat het om wederom een technisch beperkende maatregel gaat waarmee wederom een grote marktpartij probeert zijn financiele belangen te beschermen. Ik denk, laat de diverse websites en kranten/uitgevers maar eens eerst echt proberen om zich met hun content te profileren. En dat er een fors aantal wellicht sneuvelen omdat ze niet mee kunnen in deze nieuwe tijd? Dat gebeurt nou eenmaal met dinosaurussen en dodo’s.

  • © 2006- 2019 Vakblog – werken met informatie
    Aangedreven door WordPress en duizenden liters koffie // Theme: Tatami van Elmastudio
Top