Tweetweekoverzicht week 47 2015: Studieboeken, MyJour, Europese Data Portaal, NRC, Google+, HitsNL en ondertiteling op YouTube

vakblog tweetweekoverzichtIn het tweetweekoverzicht sta ik alsnog kort stil bij nieuws en interessante ontwikkelingen waar ik wel over getwitterd heb maar waar ik (nog) geen uitgebreide blogpost aan heb gewijd.

Soms omdat anderen dat al beter gedaan hebben dan ik het zou doen, soms omdat er weinig meer over te vertellen valt dan het nieuwtje zelf en soms omdat ik er ook geen blogpost van weet te maken.

In dit tweetweekoverzicht gaat het (alleen in Amerika?) niet zo goed met de studieboekenmarkt, gaat Myjour wellicht wat anders proberen, is het Europese Data Portaal gelanceerd met honderdduizenden sets aan onderzoeksdata, kun je met 1 NRC abonnement (bijna) alle NRC artikelen lezen, is Google+ niet dood maar wel vernieuwd, lanceert streaming muziekdienst Hits NL en kun je in YouTube je publiek inschakelen om ondertiteling te laten maken.

Studieboekenmarkt in de problemen?

The Digital Reader beschrijft een steeds kleiner wordende markt voor (academische) studieboeken terwijl de prijzen blijven stijgen. Hoewel de Amerikaanse markt op meerdere punten niet te te vergelijken is met die in Nederland weet ik wel dat het ook hier niet echt geweldig gaat met de verkoop van studieboeken. Studenten kopen ze minder (nieuw tenminste, het tweedehands circuit vaart er wel bij), bibliotheken kopen ze minder en de switch naar digitale studieboeken is er eentje die – dankzij vele factoren – ook maar niet goed op gang komt.

Ook al heeft het heel veel interessante invalshoeken en kun je meerdere oorzaken aanwijzen, ik blijf er van overtuigd dat het (academisch) onderwijs aan zet is. Duidelijker sturen op wat *echt* nodig is voor hun onderwijs, welke inhoud, welke vorm en (veel!) meer dan voorheen voorgeschreven literatuur als onderwijsmateriaal behandelen. Waarbij de onderwijsinstellingen zelf verantwoordelijkheid moeten nemen om te zorgen dat studenten er toegang tot hebben en minder genegen moeten zijn om studenten een bestellijst te geven waarbij zowel zij als de uitgevers van de titels op de bestellijst maar hopen dat ze ook daadwerkelijk gekocht worden.

Maar goed, hoe je dat voor elkaar kunt krijgen heb ik ook nog niet uitgevogeld. Ik heb binnenkort weer enkele gesprekken gepland met uitgevers en komende week is er een interessante bijeenkomst over open textbooks, dus wellicht dat de ideeën nog concreter worden.

Myjour is zich aan het heroriënteren

Ik ben erg gecharmeerd van Myjour maar ik moet toegeven het ook niet heel veel te gebruiken. Daarvoor is de overvloed aan informatie simpelweg te groot. Net als bij Blendle gebruik ik Myjour voornamelijk als ik gewezen word op (of op zoek ben naar) een specifiek artikel over een specifiek onderwerp. En als je dan bedenkt dat de bekende kranten en tijdschriften allemaal bij Blendle zitten, dan is er bij mij minder behoefte aan Myjour. Ook al zitten daar bepaalde (vak)tijdschriften die weer niet bij Blendle aanwezig zijn.

Myjour erkent nu dat het niet helemaal gaat zoals ze gehoopt hadden en dat ze aan het kijken zijn naar een ander model. Persoonlijk hoop ik dat ze zich volledig storten op vaktijdschriften aangezien daar zeer veel artikelen in staan die mensen normaliter nooit zouden lezen. Wie neemt er nou abonnementen op tientallen vaktijdschriften, nietwaar? Maar dat wordt ook niet automatisch gevonden bij Myjour natuurlijk en dus blijft het probleem van discoverability hetzelfde: hoe zorg je er voor dat mensen weten wat voor mooie artikelen er te vinden zijn en dat ze met enige regelmaat terugkeren om nieuwe artikelen te kopen/lezen? Ik las af en toe een artikel uit Onze Taal bij Myjour maar heb inmiddels een abonnement op dat tijdschrift genomen en tja, daar heeft Myjour dus ook weinig aan. Ik ben benieuwd waar ze mee komen maar hoop dat ik die handige site waar ik af en toe een artikeltje opzoek niet kwijt ga raken.

Europese Commissie lanceert het Europese Data Portaal

Europa neemt open data serieus en komt nu met een portaal waar  duizenden sets met vrij te gebruiken data uit geheel Europa op te vinden is. Een mooi initiatief vind ik!

Eén NRC abonnement om alle NRC content te lezen. Maar niet in Reader

Goed nieuws van NRC want met een abonnement op 1 van de NRC publicaties kun je nu ook de artikelen van de andere publicaties lezen. Met mijn nrc.next abonnement kan ik dus nu eindelijk ook dat artikel lezen dat toevallig in Handelsblad stond en datzelfde geldt ook voor de artikelen op NRC Q.

Dat is iets waar ik op wachtte maar dan wel specifiek als het om NRC Reader gaat, de app waar een selectie van NRC artikelen dagelijks in gepubliceerd wordt maar waar je een apart abonnement voor moet afsluiten. NRC Reader beviel me zeer goed maar ik vertik(te) het om twee keer te betalen voor dezelfde artikelen.

Maar helaas is er in de mail van NRC geen sprake van toegang tot NRC Reader en nee, dat blijkt in de app zelf ook niet veranderd te zijn. Dus voel ik me een beetje blij gemaakt met een dode mus.

nrcreader_nogniet

De nieuwe Google+

Even leek het er op dat Google zelf ook klaar was met Google+. De foto’s werden er uit gehaald naar een aparte dienst, Hangouts idem en zelf dacht ik ook dat Google’s eigen sociale netwerk wellicht een aflopende zaak zou worden. Niets is minder waar want, naar eigen zeggen, trekken de (resterende) onderdelen van Communities en Collections dagelijks meer dan een miljoen nieuwe gebruikers aan.

Reden voor Google om deze onderdelen nu ook centraal te stellen in Google+ en te voorzien van een nieuw jasje. Het is in elk geval nu makkelijker te gebruiken en als sociaal media platform ook wat eenduidiger nu je niet meer verdrinkt in alle mogelijkheden van Google+ (en het gedwongen gebruik ervan door Google voor al hun diensten). Misschien ga ik toch maar eens weer actief een kijkje nemen nu.

Streaming muziekdienst HitsNL voor alleen Nederlandstalige muziek

Ik dacht dat de markt voor streaming muziekdiensten wel verzadigd was maar afgelopen week kwam er in Nederland een nieuwe bij: Hits NL. Het bijzondere aan deze muziekdienst is dat het niet gelijk is aan al die andere diensten met ca. 15 tot 20 miljoen nummers voor een tientje per maand maar dat het zich focust op alleen Nederlandstalige muziek. Geen Adele, Lady Gaga en Justin Bieber maar wel Guus Meeuwis, Marco Borsato, Frans Bauer en Doe Maar. Voor dat kleinere en specifieke aanbod betaal je dan ook een stuk minder dan alle andere diensten: voor €3,99 per maand kun je in het Nederlands meezingen met alle hits uit verleden en heden.

YouTube geeft gebruikers de mogelijkheid om zelf ondertiteling te laten maken

Ik ben groot fan van ondertiteling. Ik heb het bij de meeste video’s op YouTube niet nodig om het te verstaan (mits er fatsoenlijk Nederlands of Engels gesproken wordt natuurlijk) maar het maakt het veel handiger om even snel door een video te zappen naar een specifiek deel. Met ondertiteling zie je meteen waar het over gaat terwijl je anders even 15 seconden of zo moet luisteren om dat af te leiden.

YouTube ziet het vooral als een optimale manier om een zo breed mogelijke doelgroep voor je video’s te krijgen en maakt het nu makkelijker voor uploaders om voor ondertiteling van hun video’s te zorgen. Die kunnen er nu voor kiezen dat kijkers van de video’s zelf ondertiteling kunnen maken en aanleveren – het is een optie die je aan moet zetten als uploader – maar biedt nu ook een nieuwe dienst voor als uploaders liever professionelere ondertiteling willen. Die kunnen nu in een marktplaats die professionele ondertiteling bestellen tegen betaling.

#

Open data en het gebruik van data in het GGC en WorldCat

Gisteren was ik aanwezig bij een bijeenkomst van de Stichting Pica Database in Utrecht. Met de titel Gebruik van data in het GGC en WorldCat: wat is toegestaan op grond van de nieuwe regeling? was het niet heel verrassend dat er slechts enkelen vanuit de hogescholen vertegenwoordigd waren. Mijn eigen aanwezigheid werd desondanks niet vreemd bevonden en dat was ook wel bijzonder als je bedenkt dat mijn instelling geen afnemer/gebruiker is van het GGC of Worldcat en hogeschoolbibliotheken, voor zover ik weet, weinig tot niets doen met data uit deze databases.

Reden voor de bijeenkomst was de nieuwe regeling t.a.v. het gebruik van data uit de twee databases die men toe wilde lichten en men had het programma ook nog uitgebreid met een presentatie van Lieneke Viergever over privacy aspecten bij gebruiken van data bij clouddiensten en een dubbelpresentatie van Johan Stapel en Eric van Lubeek over linked open data en wat het voor OCLC betekent, als eigenaren van GGC en Worldcat.

Ik heb de eerste presentatie over de geschiedenis en rol van Stichting Pica en Stichting Pica Database voor kennisgeving aangenomen en de tweede presentatie van Dorien Hooman, die de nieuwe regeling daadwerkelijk toelichtte als een opstapje beschouwd voor de reden dat ik eigenlijk aanwezig was. Namelijk een beetje zicht krijgen op het fenomeen (linked) open data en dan vooral de juridische en auteursrechtelijke aspecten ervan.

Ik werd na de koffiepauze op mijn wenken bediend door Lieneke Viergever, advocate bij Project Moore,  die behalve de privacy aspecten rondom clouddiensten ook nog een zijstapje maakte naar definiëring van open data (via Open Definition):

“A piece of content or data is open if anyone is free to use, reuse, and redistribute it — subject only, at most, to the requirement to attribute and/or share-alike.”

Heel kort, helaas, verwees ze nog naar de Open Data Commons die het mogelijk maken om, vergelijkbaar met de Creative Commons voor content, open data te voorzien van een licentie. Voor de data uit het GGC en Worldcat plakt OCLC de Open Data Commons Attribution License er op waarbij de data dus vrijelijk hergebruikt kan worden mits er aan (naams)vermelding wordt gedaan. De spreker voor haar, Dorien Hooman, bevestigde dat dit wel een discussie/onderhandeling opleverde tussen OCLC en Europeana aangezien deze laatste een volledig vrij gebruik nastreeft -zonder naamsvermelding-.

Johan Stapel verduidelijkte nog de betekenis en het belang van Linked Open Data en introduceerde het publiek tegelijkertijd met de Pecha Kucha stijl van presenteren waarin 20 slides telkens (precies) 20 seconden in beeld bleven waardoor hij keurig binnen de 7 minuten zijn verhaal kon afronden. Eric van Lubeek, de managing director van OCLC EMEA ken ik vooral van de uitgebreide schema’s in zijn presentaties en hij ging dan ook wijselijk zelf niet met de Pecha Kucha stijl van presenteren verder. Wel demonstreerde hij de rol en betekenis van open data voor OCLC EMEA aan de hand van de ontwikkeling van een nieuwe dienst, Worldshare Platform.

Hoewel dit platform, GGC en Worldcat niet direct relevant zijn voor mezelf, vind ik het hele idee van open data fascinerend. Open standaarden, harmonisatie en afstemming, de techniek erachter maar ook de auteursrechtelijke en licentie aspecten die erbij horen zijn alle zaken die voor ons vakgebied van informatievoorziening enerzijds nieuw zijn maar anderzijds stoelen op hele oude principes uit het bibliotheekwezen.

Wat hebben we toch een geweldig vak!

@ foto via Cool Breakfast

#

TEDTalk William Noel: Revealing the lost codex of Archimedes

William Noel vertelt uitgebreid hoe een palimpsest, een hergebruikt perkament waarbij in dit geval maar liefst 7 documenten gerecycled werden, weer ontcijferd werd in de oorspronkelijke documenten omdat 1 ervan een codex van Archimedes was. Behalve een fraai staaltje boekrestauratie is het tevens een pleidooi om de data, die uit dit soort digitaliseringsprojecten komen, wereldwijd vrijelijk beschikbaar te maken voor het publiek onder een Creative Commons licentie.

Zoals Noel terecht stelt in zijn verhaal, de beste manier om boeken duurzaam te bewaren is om ze weg te stoppen en te zorgen dat zo min mogelijk mensen te daadwerkelijk lezen. De beste manier om data duurzaam te bewaren is echter om het zo breed mogelijk te verspreiden met zo min mogelijk restricties.

The Web of ancient manuscripts of the future isn’t going to be built by institutions. It’s going to be built by users … people who just want to curate their own glorious selection of beautiful things. (William Noel)

How do you read a two-thousand-year-old manuscript that has been erased, cut up, written on and painted over? With a powerful particle accelerator, of course! Ancient books curator William Noel tells the fascinating story behind the Archimedes palimpsest, a Byzantine prayer book containing previously-unknown original writings from ancient Greek mathematician Archimedes and others.

William Noel is a curator who believes museums should make their collections free and available on the Internet.

@ TEDTalks are distributed under a Creative Commons (CC) license.

#

Over het seminar Onderzoeksdata: wat kan, mag en moet

Gisteren vond bij de NWO het door SURFacademy georganiseerde Seminar Onderzoeksdata: wat kan, mag en moet plaats. Uit de aankondiging:

Transparantie in het wetenschappelijk onderzoek is een veelbesproken onderwerp. In hoeverre kan, mag en moet onderzoeksdata inzichtelijk en toegankelijk zijn? Voor valorisatie en voor hergebruik is open toegang tot onderzoeksdata belangrijk. Steeds meer onderzoeksinstellingen vragen om het beschikbaar maken van de onderzoeksdata. Zowel om de conclusies, zoals opgetekend in een wetenschappelijke publicatie, te kunnen verifiëren als om efficiënt (her)gebruik van onderzoek mogelijk te maken.

Financiers als de Europeese Unie en NWO geven aan dat een onderzoeker zijn/haar publiek gefinancierd onderzoek open beschikbaar maakt. Maar hoe doe je dat? Wat kan, mag en moet?

Dit seminar biedt u inzichten in enerzijds het beleid van NWO ten aanzien van openbaarheid van onderzoeksdata. En anderzijds krijgt u inzicht in de mogelijkheden en beperkingen van de Auteurswet voor het hergebruik van onderzoeksdata.

Met onderzoeksfinanciering heb ik zelf niets van doen aangezien dit aspect in het HBO zich buiten mijn waarneming afspeelt en het onderwerp van open onderzoeksdata en open access sowieso daar nog in de kinderschoenen staat. De auteursrechtelijke aspecten bij hergebruik van onderzoeksdata daarentegen leken me wel bijzonder interessant en kennelijk was ik daar niet alleen in. Onder de meer dan 80 bezoekers waren misschien maar nipt 10% afkomstig uit het HBO en kwam de meerderheid vanuit de universiteiten, er waren veel collega’s van de Auteursrechten Informatiepunten van beide. Het bleek uiteindelijk ook een leuke mix te zijn in de zaal met bezoekers vanuit onderzoeksinstituten.

Het programma opende met Ron Dekker, directeur Instituten, Financien en Infrastructuur van de NWO die aan de hand van de missie toelichtte hoe de NWO omgaat (PDF) met en stuurt op hergebruik en toegankelijkheid tot de datasets. In de nieuwe NWO-Regeling Subsidies is nu expliciet opgenomen dat de NWO mede eigenaarschap kan claimen t.a.v. data die voortkomt uit door NWO gesubsidieerd onderzoek. Onder de noemer Wie betaalt, bepaalt wil de NWO het belang van delen van onderzoeksdata beter onder de aandacht brengen en heeft men tegelijk een middel in handen om te voorkomen dat het eigenaarschap van de data wordt overgedragen aan commerciële partijen.

De auteursrechtelijke aspecten rondom ruwe data en datasets werden vervolgens toegelicht door Madeleine de Cock Buning, hoogleraar Auteurs- Communicatie- en Mediarecht bij CIER en Commissaris bij de Commissariaat voor de Media. Ze werd geïntroduceerd als de expert op dit gebied en hoewel ze dit poogde te relativeren was het al snel duidelijk dat het eerder een understatement was. Op een aanstekelijke enthousiaste wijze en met gevoel voor humor verduidelijkte ze de juridische uitgangspositie (PDF) van onderzoeksdata aan de hand van het auteursrecht, het databankenrecht en de onpersoonlijke geschriftenbescherming. Zowel het rapport ‘De juridische status van ruwe data; een wegwijzer voor de onderzoekspraktijk’ (2009) als het recent verschenen rapport Data in Publiek-Private Projecten: Juridische aspecten (2011) is mede van haar hand en gaan uitgebreid in op al die juridische aspecten.

Na een intermezzo waarin Annemiek van der Kuil de zojuist opgedane kennis in de zaal toetste was het de beurt aan Wilma Mossink, juridisch adviseur bij SURF, die verder inging op het eigenaarschap van data (PDF). Aan de hand van een schema, waarin de vele processen waren opgenomen om te komen tot het verzamelen, bewaren en archiveren van onderzoeksdata, lichtte ze lopende ontwikkelingen en studies toe. Deze zijn allemaal te vinden op de Toegang tot onderzoeksdata site van SURFfoundation.

Heiko Tjalsma, specialist digitale archivering bij DANS, gaf daarna aan hoe er in de praktijk om wordt gegaan (PDF) met opslaan, archivering en beschikbaarstelling van onderzoeksdata en de bijbehorende licenties. Ondanks alle goede intenties bleken er ook voldoende valide redenen te zijn om vertrouwelijk om te (blijven) gaan met data en DANS zoekt dus ook een balans tussen een optimale vrije toegankelijkheid en selectief toegang geven tot vertrouwelijke informatie.

Over licenties ging het laatste blok dan ook (PDF) en Madeleine de Cock Buning concludeerde dat bestaande licenties niet goed passen bij open onderzoeksdata. Ze raadde aan om IE-rechten geen obstakel te laten zijn voor delen en hergebruiken van onderzoeksdata en bepleitte een gedragscode bij onderzoeksinstituten en onderzoekers ipv een stelsel van licenties om flexibeler te zijn in de ontwikkelingen die nog steeds gaande zijn t.a.v. onderzoeksdata. Wilma Mossink ging, desalniettemin, afsluitend in op de Open Data Commons licenties die aan onderzoeksdata meegegeven kunnen worden.

Al met al een interessante middag over een onderwerp waar ik na afloop aanzienlijk meer over wist dan vooraf. Dat is voor mij het bewijs voor een geslaagd seminar en hoewel ik niet, zoals Madeleine suggereerde, de Berlin Declaration uitgeprint boven mijn bed heb hangen is het aspect open data binnen open access voor mij nu een stuk duidelijk geworden, ook om te vertellen aan anderen. Ook deze kennis moet gedeeld worden, niet waar?

@foto via RGBstock
  • © 2006- 2016 Vakblog – werken met informatie
    Aangedreven door WordPress en liters koffie // Theme: Tatami van Elmastudio
Top