Uitgevers willen wet om zoekmachines aan banden te leggen

Kranten willen wet om zoekspiders te beperken“, kopte Webwereld vandaag. Vorige week is er een internationale bijeenkomst geweest van uitgevers die met lede ogen toe moesten zien dat hun traditionele distributiemodellen niet meer werkten op internet. Een dergelijke internationele conventie is niet compleet zonder eigen declaratie en dus is er de ‘Declaratie van Hamburg‘ getekend waarin opgeroepen wordt het intellectuele eigendomsrecht en de vrije nieuwsgaring en journalistiek te beschermen.

Onderdeel hiervan is de ontwikkeling van een nieuw protocol, ACAP, dat feitelijk een (veel) uitgebreidere versie is van de bekende robots.txt en waarmee instructies gegeven kunnen worden aan de crawlers van zoekmachines als het gaat om wat er geindexeerd kan/mag worden van een site.

Nu hebben de uitgevers het verlangen uitgesproken om dit wettelijk vast te gaan leggen zodat zoekmachines (Google wordt natuurlijk met name genoemd) zich moeten conformeren aan dit protocol. Het maakt het voor uitgevers mogelijk om bijv. de duur van de indexering te beperken zodat nieuws(artikelen) slechts korte periode beschikbaar zijn in de indexen van Google. Natuurlijk met als doel dat na die periode het artikel nog steeds wel, waarschijnlijk niet zonder creditcard, via de originele nieuwssite verkrijgbaar is.

Ik moet zeggen dat ik hier een beetje in twijfel over sta. Aan de ene kant vind ik dat uitgevers en kranten eens goed moeten gaan kijken om hun content rendabel te krijgen via internet zonder gelijk met technisch restrictieve maatregelen aan de slag te gaan. Aan de andere kant vind ik dat websites, en dat geldt dus ook voor nieuwssites, zelf zouden moeten kunnen bepalen wat er wel en wat er niet geindexeerd mag worden door een zoekmachine.

Beide kanten hebben namelijk een selecterende werking: diegene die te veel vasthouden aan traditionele ouderwetse modellen zullen van de markt verdwijnen en dat geldt ook voor die nieuwssites die hardnekkig weigeren opgenomen te worden via een zoekmachine. Leuk of niet, Google is de nummer 1 zoekmachine en de nummer 1 methode om je webcontent ontsloten te krijgen op internet. Robots.txt bestaat al jaren en er valt veel te zeggen voor een iets uitgebreidere en vooral betere opvolger.

En toch jeukt het dat het om wederom een technisch beperkende maatregel gaat waarmee wederom een grote marktpartij probeert zijn financiele belangen te beschermen. Ik denk, laat de diverse websites en kranten/uitgevers maar eens eerst echt proberen om zich met hun content te profileren. En dat er een fors aantal wellicht sneuvelen omdat ze niet mee kunnen in deze nieuwe tijd? Dat gebeurt nou eenmaal met dinosaurussen en dodo’s.

Raymond Snijders

Sinds 1995 houdt Raymond zich bezig met de combinatie van ICT, bibliotheken en onderwijs vanuit het perspectief van (vooral) de bibliotheek en informatievoorziening. Thans is hij werkzaam bij de Hogeschool Windesheim als senior informatiebemiddelaar en houdt hij zich bezig met de digitale bibliotheek, contentlicenties, ebooks en auteursrecht. Over deze onderwerpen en de impact die ze (kunnen) hebben op het onderwijs en bibliotheken blogt hij sinds 2006 op zijn Vakblog. In 2013 won hij de Victorine van Schaickprijs voor zijn blog.

Comment (1) Write a comment

  1. Wat jammer denk ik altijd bij het lezen van dit soort berichten. Nu zijn het de uitgevers die hun content willen ‘beschermen’ (of beter gezegd ‘dealbaar’ willen houden). Straks zijn het de muziekproducenten. Nog even en dan gaan ook indivuele webgebruikers hun content ‘aan banden’ leggen. Dan zijn we uiteindelijk weer terug bij af en wordt het eens zo mooie interactieve web weer een etalage. Jammer, of zou het misschien toch een idee zijn voor uitgevers e.d. om nu eindelijk eens toe te geven aan de veranderende wereld en de traditionele verdienmodellen te laten voor wat ze zijn, en hiervoor in de plaats een nieuwe business-case op te stellen ;-)

    Reply

Leave a Reply

Required fields are marked *.


This site uses Akismet to reduce spam. Learn how your comment data is processed.

  • © 2006- 2019 Vakblog – werken met informatie
    Aangedreven door WordPress en duizenden liters koffie // Theme: Tatami van Elmastudio
Top